Literatura académica sobre el tema "Vocal feature"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Vocal feature".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Vocal feature"
Keyser, Samuel Jay y Kenneth N. Stevens. "Feature geometry and the vocal tract". Phonology 11, n.º 2 (agosto de 1994): 207–36. http://dx.doi.org/10.1017/s0952675700001950.
Texto completoLv, Chaohui, Hua Lan, Ying Yu y Shengnan Li. "Objective Evaluation Method of Broadcasting Vocal Timbre Based on Feature Selection". Wireless Communications and Mobile Computing 2022 (26 de mayo de 2022): 1–17. http://dx.doi.org/10.1155/2022/7086599.
Texto completoWang, Fenqi, Delin Deng y Ratree Wayland. "The acoustic profiles of vocal emotions in Japanese: A corpus study with generalized additive mixed modeling". Journal of the Acoustical Society of America 152, n.º 4 (octubre de 2022): A60—A61. http://dx.doi.org/10.1121/10.0015548.
Texto completoJayanthi Kumari, T. R. y H. S. Jayanna. "i-Vector-Based Speaker Verification on Limited Data Using Fusion Techniques". Journal of Intelligent Systems 29, n.º 1 (3 de mayo de 2018): 565–82. http://dx.doi.org/10.1515/jisys-2017-0047.
Texto completoLahiri, Rimita, Md Nasir, Manoj Kumar, So Hyun Kim, Somer Bishop, Catherine Lord y Shrikanth Narayanan. "Interpersonal synchrony across vocal and lexical modalities in interactions involving children with autism spectrum disorder". JASA Express Letters 2, n.º 9 (septiembre de 2022): 095202. http://dx.doi.org/10.1121/10.0013421.
Texto completoWu, Yunfeng, Pinnan Chen, Yuchen Yao, Xiaoquan Ye, Yugui Xiao, Lifang Liao, Meihong Wu y Jian Chen. "Dysphonic Voice Pattern Analysis of Patients in Parkinson’s Disease Using Minimum Interclass Probability Risk Feature Selection and Bagging Ensemble Learning Methods". Computational and Mathematical Methods in Medicine 2017 (2017): 1–11. http://dx.doi.org/10.1155/2017/4201984.
Texto completoMatassini, Lorenzo, Rainer Hegger, Holger Kantz y Claudia Manfredi. "Analysis of vocal disorders in a feature space". Medical Engineering & Physics 22, n.º 6 (julio de 2000): 413–18. http://dx.doi.org/10.1016/s1350-4533(00)00048-5.
Texto completoSHIMADA M., Yohko. "Feature of infants' sound in overlapping vocal communication". Proceedings of the Annual Convention of the Japanese Psychological Association 75 (15 de septiembre de 2011): 2PM077. http://dx.doi.org/10.4992/pacjpa.75.0_2pm077.
Texto completoHoq, Muntasir, Mohammed Nazim Uddin y Seung-Bo Park. "Vocal Feature Extraction-Based Artificial Intelligent Model for Parkinson’s Disease Detection". Diagnostics 11, n.º 6 (11 de junio de 2021): 1076. http://dx.doi.org/10.3390/diagnostics11061076.
Texto completoZang, Lu. "Investigation on the Extraction Methods of Timbre Features in Vocal Singing Based on Machine Learning". Computational Intelligence and Neuroscience 2022 (17 de septiembre de 2022): 1–11. http://dx.doi.org/10.1155/2022/5074829.
Texto completoTesis sobre el tema "Vocal feature"
Moore, Elliot II. "Evaluating objective feature statistics of speech as indicators of vocal affect and depression". Diss., Georgia Institute of Technology, 2003. http://hdl.handle.net/1853/5346.
Texto completoMoore, Elliot. "Evaluating objective feature statistics of speech as indicators of vocal affect and depression". Available online, Georgia Institute of Technology, 2004:, 2003. http://etd.gatech.edu/theses/available/etd-04062004-164738/unrestricted/moore%5Felliot%5F200312%5Fphd.pdf.
Texto completoCarvalho, Raphael Torres Santos. "Transformada Wavelet na detecÃÃo de patologias da laringe". Universidade Federal do CearÃ, 2012. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=8908.
Texto completoA quantidade de mÃtodos nÃo invasivos de diagnÃstico tem aumentado devido à necessidade de exames simples, rÃpidos e indolores. Por conta do crescimento da tecnologia que fornece os meios necessÃrios para a extraÃÃo e processamento de sinais, novos mÃtodos de anÃlise tÃm sido desenvolvidos para compreender a complexidade dos sinais de voz. Este trabalho de dissertaÃÃo apresenta uma nova ideia para caracterizar os sinais de voz saudÃvel e patolÃgicos baseado em uma ferramenta matemÃtica amplamente conhecida na literatura, a Transformada Wavelet (WT). O conjunto de dados utilizado neste trabalho consiste de 60 amostras de vozes divididas em quatro classes de amostras, uma de indivÃduos saudÃveis e as outras trÃs de pessoas com nÃdulo vocal, edema de Reinke e disfonia neurolÃgica. Todas as amostras foram gravadas usando a vogal sustentada /a/ do PortuguÃs Brasileiro. Os resultados obtidos por todos os classificadores de padrÃes estudados mostram que a abordagem proposta usando WT à uma tÃcnica adequada para discriminaÃÃo entre vozes saudÃvel e patolÃgica, e apresentaram resultados similares ou superiores a da tÃcnica clÃssica quanto à taxa de reconhecimento.
The amount of non-invasive methods of diagnosis has increased due to the need for simple, quick and painless tests. Due to the growth of technology that provides the means for extraction and signal processing, new analytical methods have been developed to help the understanding of analysis of the complexity of the voice signals. This dissertation presents a new idea to characterize signals of healthy and pathological voice based on one mathematical tools widely known in the literature, Wavelet Transform (WT). The speech data were used in this work consists of 60 voice samples divided into four classes of samples: one from healthy individuals and three from people with vocal fold nodules, Reinkeâs edema and neurological dysphonia. All the samples were recorded using the vowel /a/ in Brazilian Portuguese. The obtained results by all the pattern classifiers studied indicate that the proposed approach using WT is a suitable technique to discriminate between healthy and pathological voices, since they perform similarly to or even better than classical technique, concerning recognition rates.
Wildermoth, Brett Richard y n/a. "Text-Independent Speaker Recognition Using Source Based Features". Griffith University. School of Microelectronic Engineering, 2001. http://www4.gu.edu.au:8080/adt-root/public/adt-QGU20040831.115646.
Texto completoWildermoth, Brett Richard. "Text-Independent Speaker Recognition Using Source Based Features". Thesis, Griffith University, 2001. http://hdl.handle.net/10072/366289.
Texto completoThesis (Masters)
Master of Philosophy (MPhil)
School of Microelectronic Engineering
Faculty of Engineering and Information Technology
Full Text
Horwitz-Martin, Rachelle (Rachelle Laura). "Vocal modulation features in the prediction of major depressive disorder severity". Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/93072.
Texto completo"September 2014." Cataloged from PDF version of thesis.
Includes bibliographical references (pages 113-115).
This thesis develops a model of vocal modulations up to 50 Hz in sustained vowels as a basis for biomarkers of neurological disease, particularly Major Depressive Disorder (MDD). Two model components contribute to amplitude modulation (AM): AM from respiratory muscles and from interaction between formants and frequency modulation in the fundamental frequency harmonics. Based on the modulation model, we test three methods to extract the envelope of the third formant from which features are extracted using sustained vowels from the 2013 AudioNisual Emotion Challenge. Using a Gaussian-Mixture-Model-based predictor, we evaluate performance of each feature in predicting subjects' Beck MDD severity score by the root mean square error (RMSE), mean absolute error (MAE), and Spearman correlation between the actual Beck score and predicted score. Our lowest MAE and RMSE values are 8.46 and 10.32, respectively (Spearman correlation=0.487, p<0.001), relative to the mean MAE of 10.05 and mean RMSE of 11.86.
by Rachelle L. Horwitz.
S.M.
GarciÌa, MariÌa Susana Avila. "Automatic tracking of 3D vocal tract features during speech production using MRI". Thesis, University of Southampton, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.437111.
Texto completoMarchetto, Enrico. "Automatic Speaker Recognition and Characterization by means of Robust Vocal Source Features". Doctoral thesis, Università degli studi di Padova, 2011. http://hdl.handle.net/11577/3427390.
Texto completoIl Riconoscimento Automatico del Parlatore rappresenta un campo di ricerca esteso, che comprende molti argomenti: elaborazione del segnale, fisiologia vocale e dell'apparato uditivo, strumenti di modellazione statistica, studio del linguaggio, ecc. Lo studio di queste tecniche è iniziato circa trenta anni fa e, da allora, ci sono stati grandi miglioramenti. Nondimeno, il campo di ricerca continua a porre questioni e, in tutto il mondo, gruppi di ricerca continuano a lavorare per ottenere sistemi di riconoscimento più affidabili e con prestazioni migliori. La presente tesi documenta un progetto di Philosophiae Doctor finanziato dall'Azienda privata RT - Radio Trevisan Elettronica Industriale S.p.A. Il titolo della borsa di studio è "Riconoscimento automatico del parlatore con applicazioni alla sicurezza e all'intelligence". Parte del lavoro ha avuto luogo durante una visita, durata sei mesi, presso lo Speech, Music and Hearing Department del KTH - Royal Institute of Technology di Stoccolma. La ricerca inerente il Riconoscimento del Parlatore sviluppa tecnologie per associare automaticamente una data voce umana ad una versione precedentemente registrata della stessa. Il Riconoscimento del Parlatore (Speaker Recognition) viene solitamente meglio definito in termini di Verifica o di Identificazione del Parlatore (in letteratura Speaker Verification o Speaker Identification, rispettivamente). L'Identificazione consiste nel recupero dell'identità di una voce fra un numero (anche alto) di voci modellate dal sistema; nella Verifica invece, date una voce ed una identità, si chiede al sistema di verificare l'associazione tra le due. I sistemi di riconoscimento producono anche un punteggio (Score) che attesta l'attendibilità della risposta fornita. La prima Parte della tesi propone una revisione dello stato dell'arte circa il Riconoscimento del Parlatore. Vengono descritte le componenti principali di un prototipo per il riconoscimento: estrazione di Features audio, modellazione statistica e verifica delle prestazioni. Nel tempo, la comunità di ricerca ha sviluppato una quantità di Features Acustiche: si tratta di tecniche per descrivere numericamente il segnale vocale in modo compatto e deterministico. In ogni applicazione di riconoscimento, anche per le parole o il linguaggio (Speech o Language Recognition), l'estrazione di Features è il primo passo: ha lo scopo di ridurre drasticamente la dimensione dei dati di ingresso, ma senza perdere alcuna informazione significativa. La scelta delle Features più idonee ad una specifica applicazione, e la loro taratura, sono cruciali per ottenere buoni risultati di riconoscimento; inoltre, la definizione di nuove features costituisce un attivo campo di ricerca perché la comunità scientifica ritiene che le features esistenti siano ancora lontane dallo sfruttamento dell'intera informazione portata dal segnale vocale. Alcune Features si sono affermate nel tempo per le loro migliori prestazioni: Coefficienti Cepstrali in scala Mel (Mel-Frequency Cepstral Coefficients) e Coefficienti di Predizione Lineare (Linear Prediction Coefficients); tali Features vengono descritte nella Parte I. Viene introdotta anche la modellazione statistica, spiegando la struttura dei Modelli a Misture di Gaussiane (Gaussian Mixture Models) ed il relativo algoritmo di addestramento (Expectation-Maximization). Tecniche di modellazione specifiche, quali Universal Background Model, completano poi la descrizione degli strumenti statistici usati per il riconoscimento. Lo Scoring rappresenta, infine, la fase di produzione dei risultati da parte del sistema di riconoscimento; comprende diverse procedure di normalizzazione che compensano, ad esempio, i problemi di modellazione o le diverse condizioni acustiche con cui i dati audio sono stati registrati. La Parte I prosegue poi presentando alcuni database audio usati comunemente in letteratura quali riferimento per il confronto delle prestazioni dei sistemi di riconoscimento; in particolare, vengono presentati TIMIT e NIST Speaker Recognition Evaluation (SRE) 2004. Tali database sono adatti alla valutazione delle prestazioni su audio di natura telefonica, di interesse per la presente tesi; tale argomento verrà ulteriormente discusso nella Parte II. Durante il progetto di PhD è stato progettato e realizzato un prototipo di sistema di riconoscimento, discusso nella Parte II. Il primo Capitolo descrive l'applicazione di riconoscimento proposta; la tecnologia per Riconoscimento del Parlatore viene applicate alle linee telefoniche, con riferimento alla sicurezza e all'intelligence. L'applicazione risponde a una specifica necessità delle Autorità quando le investigazioni coinvolgono intercettazioni telefoniche. In questi casi le Autorità devono ascoltare grandi quantità di dati telefonici, la maggior parte dei quali risulta essere inutile ai fini investigativi. L'idea applicativa consiste nell'identificazione e nell'etichettatura automatiche dei parlatori presenti nelle intercettazioni, permettendo così la ricerca di uno specifico parlatore presente nella collezione di registrazioni. Questo potrebbe ridurre gli sprechi di tempo, ottenendo così vantaggi economici. L'audio proveniente da linee telefoniche pone difficoltà al riconoscimento automatico, perché degrada significativamente il segnale e peggiora quindi le prestazioni. Vengono generalmente riconosciute alcune problematiche del segnale audio telefonico: banda ridotta, rumore additivo e rumore convolutivo; quest'ultimo causa distorsione di fase, che altera la forma d'onda del segnale. Il secondo Capitolo della Parte II descrive in dettaglio il sistema di Riconoscimento del Parlatore sviluppato; vengono discusse le diverse scelte di progettazione. Sono state sviluppate le componenti fondamentali di un sistema di riconoscimento, con alcune migliorie per contenere il carico computazionale. Durante lo sviluppo si è ritenuto primario lo scopo di ricerca del software da realizzare: è stato profuso molto impegno per ottenere un sistema con buone prestazioni, che però rimanesse semplice da modificare anche in profondità. La necessità (ed opportunità) di verificare le prestazioni del prototipo ha posto ulteriori requisiti allo sviluppo, che sono stati soddisfatti mediante l'adozione di un'interfaccia comune ai diversi database. Infine, tutti i moduli del software sviluppato possono essere eseguiti su un Cluster di Calcolo (calcolatore ad altre prestazioni per il calcolo parallelo); questa caratteristica del prototipo è stata cruciale per permettere una approfondita valutazione delle prestazioni del software in tempi ragionevoli. Durante il lavoro svolto per il progetto di Dottorato sono stati condotti studi affini al Riconoscimento del Parlatore, ma non direttamente correlati ad esso. Questi sviluppi vengono descritti nella Parte II quali estensioni del prototipo. Viene innanzitutto presentato un Rilevatore di Parlato (Voice Activity Detector) adatto all'impiego in presenza di rumore. Questo componente assume particolare importanza quale primo passo dell'estrazione delle Features: è necessario infatti selezionare e mantenere solo i segmenti audio che contengono effettivamente segnale vocale. In situazioni con rilevante rumore di fondo i semplici approcci a "soglia di energia" falliscono. Il Rilevatore realizzato è basato su Features avanzate, ottenute mediante le Trasformate Wavelet, ulteriormente elaborate mediante una sogliatura adattiva. Una seconda applicazione consiste in un prototipo per la Speaker Diarization, ovvero l'etichettatura automatica di registrazioni audio contenenti diversi parlatori. Il risultato del procedimento consiste nella segmentazione dell'audio ed in una serie di etichette, una per ciascun segmento; il sistema fornisce una risposta del tipo "chi parla quando". Il terzo ed ultimo studio collaterale al Riconoscimento del Parlatore consiste nello sviluppo di un sistema di Riduzione del Rumore (Noise Reduction) su piattaforma hardware DSP dedicata. L'algoritmo di Riduzione individua il rumore in modo adattivo e lo riduce, cercando di mantenere solo il segnale vocale; l'elaborazione avviene in tempo reale, pur usando solo una parte molto limitata delle risorse di calcolo del DSP. La Parte III della tesi introduce, infine, Features audio innovative, che costituiscono il principale contributo innovativo della tesi. Tali Features sono ottenute dal flusso glottale, quindi il primo Capitolo della Parte discute l'anatomia del tratto e delle corde vocali. Viene descritto il principio di funzionamento della fonazione e l'importanza della fisica delle corde vocali. Il flusso glottale costituisce un ingresso per il tratto vocale, che agisce come un filtro. Viene descritto uno strumento software open-source per l'inversione del tratto vocale: esso permette la stima del flusso glottale a partire da semplici registrazioni vocali. Alcuni dei metodi usati per caratterizzare numericamente il flusso glottale vengono infine esposti. Nel Capitolo successivo viene presentata la definizione delle nuove Features glottali. Le stime del flusso glottale non sono sempre affidabili quindi, durante l'estrazione delle nuove Features, il primo passo individua ed esclude i flussi giudicati non attendibili. Una procedure numerica provvede poi a raggruppare ed ordinare le stime dei flussi, preparandoli per la modellazione statistica. Le Features glottali, applicate al Riconoscimento del Parlatore sui database TIMIT e NIST SRE 2004, vengono comparate alle Features standard. Il Capitolo finale della Parte III è dedicato ad un diverso lavoro di ricerca, comunque correlato alla caratterizzazione del flusso glottale. Viene presentato un modello fisico delle corde vocali, controllato da alcune regole numeriche, in grado di descrivere la dinamica delle corde stesse. Le regole permettono di tradurre una specifica impostazione dei muscoli glottali nei parametri meccanici del modello, che portano ad un preciso flusso glottale (ottenuto dopo una simulazione al computer del modello). Il cosiddetto Problema Inverso è definito nel seguente modo: dato un flusso glottale si chiede di trovare una impostazione dei muscoli glottali che, usata per guidare il modello fisico, permetta la risintesi di un segnale glottale il più possibile simile a quello dato. Il problema inverso comporta una serie di difficoltà, quali la non-univocità dell'inversione e la sensitività alle variazioni, anche piccole, del flusso di ingresso. E' stata sviluppata una tecnica di ottimizzazione del controllo, che viene descritta. Il capitolo conclusivo della tesi riassume i risultati ottenuti. A fianco di questa discussione è presentata un piano di lavoro per lo sviluppo delle Features introdotte. Vengono infine presentate le pubblicazioni prodotte.
Almeida, N?thalee Cavalcanti de. "Sistema inteligente para diagn?stico de patologias na laringe utilizando m?quinas de vetor de suporte". Universidade Federal do Rio Grande do Norte, 2010. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15149.
Texto completoCoordena??o de Aperfei?oamento de Pessoal de N?vel Superior
The human voice is an important communication tool and any disorder of the voice can have profound implications for social and professional life of an individual. Techniques of digital signal processing have been used by acoustic analysis of vocal disorders caused by pathologies in the larynx, due to its simplicity and noninvasive nature. This work deals with the acoustic analysis of voice signals affected by pathologies in the larynx, specifically, edema, and nodules on the vocal folds. The purpose of this work is to develop a classification system of voices to help pre-diagnosis of pathologies in the larynx, as well as monitoring pharmacological treatments and after surgery. Linear Prediction Coefficients (LPC), Mel Frequency cepstral coefficients (MFCC) and the coefficients obtained through the Wavelet Packet Transform (WPT) are applied to extract relevant characteristics of the voice signal. For the classification task is used the Support Vector Machine (SVM), which aims to build optimal hyperplanes that maximize the margin of separation between the classes involved. The hyperplane generated is determined by the support vectors, which are subsets of points in these classes. According to the database used in this work, the results showed a good performance, with a hit rate of 98.46% for classification of normal and pathological voices in general, and 98.75% in the classification of diseases together: edema and nodules
A voz humana ? uma importante ferramenta de comunica??o e qualquer funcionamento inadequado da voz pode ter profundas implica??es na vida social e profissional de um indiv?duo. T?cnicas de processamento digital de sinais t?m sido utilizadas atrav?s da an?lise ac?stica de desordens vocais provocadas por patologias na laringe, devido ? sua simplicidade e natureza n?o-invasiva. Este trabalho trata da an?lise ac?stica de sinais de vozes afetadas por patologias na laringe, especificamente, edemas e n?dulos nas pregas vocais. A proposta deste trabalho ? desenvolver um sistema de classifica??o de vozes para auxiliar no pr?-diagn?stico de patologias na laringe, bem como no acompanhamento de tratamentos farmacol?gicos e p?s-cir?rgicos. Os coeficientes de Predi??o Linear (LPC), Coeficientes Cepstrais de Freq??ncia Mel (MFCC) e os coeficientes obtidos atrav?s da Transformada Wavelet Packet (WPT) s?o aplicados para extra??o de caracter?sticas relevantes do sinal de voz. ? utilizada para a tarefa de classifica??o M?quina de Vetor de Suporte (SVM), a qual tem como objetivo construir hiperplanos ?timos que maximizem a margem de separa??o entre as classes envolvidas. O hiperplano gerado ? determinado pelos vetores de suporte, que s?o subconjuntos de pontos dessas classes. De acordo com o banco de dados utilizado neste trabalho, os resultados apresentaram um bom desempenho, com taxa de acerto de 98,46% para classifica??o de vozes normais e patol?gicas em geral, e 98,75% na classifica??o de patologias entre si: edemas e n?dulos
Lovett, Victoria Anne. "Voice Features of Sjogren's Syndrome: Examination of Relative Fundamental Frequency (RFF) During Connected Speech". BYU ScholarsArchive, 2014. https://scholarsarchive.byu.edu/etd/5749.
Texto completoLibros sobre el tema "Vocal feature"
Kizin, M. M. Russkoe vokalʹnoe iskusstvo v ėkrannoĭ kulʹture. Moskva: Izdatelʹstvo "Soglasie", 2017.
Buscar texto completoSleepless in Seattle: Music from the TriStar Pictures feature film. Miami, FL: CPP/Belwin, 1993.
Buscar texto completoAdams, David. A Handbook of Diction for Singers. 3a ed. Oxford University PressNew York, 2022. http://dx.doi.org/10.1093/oso/9780197639504.001.0001.
Texto completoShaibani, Aziz. Dysphonia. Oxford University Press, 2018. http://dx.doi.org/10.1093/med/9780190661304.003.0008.
Texto completoOwens, Matthew y Graham F. Welch. Choral Pedagogy and the Construction of Identity. Editado por Frank Abrahams y Paul D. Head. Oxford University Press, 2017. http://dx.doi.org/10.1093/oxfordhb/9780199373369.013.9.
Texto completoManning, Jane. Vocal Repertoire for the Twenty-First Century, Volume 1. Oxford University Press, 2020. http://dx.doi.org/10.1093/oso/9780199391028.001.0001.
Texto completoKaplan, Tamara y Tracey Milligan. Movement Disorders 1: Tourette’s Syndrome, Essential Tremor, and Parkinson’s Disease (DRAFT). Oxford University Press, 2018. http://dx.doi.org/10.1093/med/9780190650261.003.0011.
Texto completoShaibani, Aziz. Dysphonia. Oxford University Press, 2015. http://dx.doi.org/10.1093/med/9780199898152.003.0008.
Texto completoMalawey, Victoria. A Blaze of Light in Every Word. Oxford University Press, 2020. http://dx.doi.org/10.1093/oso/9780190052201.001.0001.
Texto completoDavé, Shilpa S. Apu’s Brown Voice. University of Illinois Press, 2017. http://dx.doi.org/10.5406/illinois/9780252037405.003.0003.
Texto completoCapítulos de libros sobre el tema "Vocal feature"
Bieser, Armin. "Amplitude Envelope Encoding as a Feature for Temporal Information Processing in the Auditory Cortex of Squirrel Monkeys". En Current Topics in Primate Vocal Communication, 221–33. Boston, MA: Springer US, 1995. http://dx.doi.org/10.1007/978-1-4757-9930-9_12.
Texto completoRajasekharreddy, Poreddy y E. S. Gopi. "Feature Selection for Vocal Segmentation Using Social Emotional Optimization Algorithm". En Socio-cultural Inspired Metaheuristics, 69–91. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-6569-0_4.
Texto completoMajidnezhad, Vahid y Igor Kheidorov. "A Novel Method for Feature Extraction in Vocal Fold Pathology Diagnosis". En Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 96–105. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-37893-5_11.
Texto completoWang, Rui, Jianli Qi y Daifu Qiao. "An Online Vocal Music Teaching Timbre Evaluation Method Based on Feature Comparison". En Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 482–94. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-21164-5_37.
Texto completoChen, Ying, Jia-yin Chen y Ai-ping Zhang. "Design of Mobile Teaching Platform for Vocal Piano Accompaniment Course Based on Feature Comparison". En Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 430–42. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-94554-1_34.
Texto completoCasalini, Iacopo, Marco Marini y Luca Fanucci. "FPGA Implementation of a Configurable Vocal Feature Extraction Embedded System for Dysarthric Speech Recognition". En Lecture Notes in Electrical Engineering, 221–28. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-95498-7_31.
Texto completoChau, Chun Keung, Chak Shun Lai y Bertram Emil Shi. "Feature vs. Model Based Vocal Tract Length Normalization for a Speech Recognition-Based Interactive Toy". En Active Media Technology, 134–43. Berlin, Heidelberg: Springer Berlin Heidelberg, 2001. http://dx.doi.org/10.1007/3-540-45336-9_17.
Texto completoKawakami, Yuta, Longbiao Wang, Atsuhiko Kai y Seiichi Nakagawa. "Speaker Identification by Combining Various Vocal Tract and Vocal Source Features". En Text, Speech and Dialogue, 382–89. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-10816-2_46.
Texto completoRusko, Milan y Jozef Juhár. "Towards Annotation of Nonverbal Vocal Gestures in Slovak". En Verbal and Nonverbal Features of Human-Human and Human-Machine Interaction, 255–65. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-70872-8_20.
Texto completoMadhavi, Maulik C., Shubham Sharma y Hemant A. Patil. "Vocal Tract Length Normalization Features for Audio Search". En Text, Speech, and Dialogue, 387–95. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-24033-6_44.
Texto completoActas de conferencias sobre el tema "Vocal feature"
Ai, Jiaqi, Yi Zuo, Junxia Liu, Peichao He, Tieshan Li y C. L. Philip Chen. "Application of hierarchical clustering analysis for vocal feature extraction". En 2019 IEEE Asia-Pacific Conference on Computer Science and Data Engineering (CSDE). IEEE, 2019. http://dx.doi.org/10.1109/csde48274.2019.9162362.
Texto completoDanilovaite, Monika. "Perceptually Motivated Feature set for Vocal Folds State Assessment". En 2020 IEEE 8th Workshop on Advances in Information, Electronic and Electrical Engineering (AIEEE). IEEE, 2021. http://dx.doi.org/10.1109/aieee51419.2021.9435765.
Texto completoLiu Fagui y Ning Jing. "A General Method of New Feature Service Development on VOCAL". En IEE Mobility Conference 2005. The Second International Conference on Mobile Technology, Applications and Systems. IEEE, 2005. http://dx.doi.org/10.1109/mtas.2005.207199.
Texto completoLiu Fagui y Ning Jing. "A general method of new feature service development on VOCAL". En IEE Mobility Conference 2005. The Second International Conference on Mobile Technology, Applications and Systems. IEE, 2005. http://dx.doi.org/10.1049/cp:20051516.
Texto completoAtmaja, Bagus Tris y Akira Sasou. "Leveraging Pre-Trained Acoustic Feature Extractor For Affective Vocal Bursts Tasks". En 2022 Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). IEEE, 2022. http://dx.doi.org/10.23919/apsipaasc55919.2022.9980083.
Texto completoMamun, Muntasir, Md Ishtyaq Mahmud, Md Iqbal Hossain, Asm Mohaimenul Islam, Md Salim Ahammed y Md Milon Uddin. "Vocal Feature Guided Detection of Parkinson’s Disease Using Machine Learning Algorithms". En 2022 IEEE 13th Annual Ubiquitous Computing, Electronics & Mobile Communication Conference (UEMCON). IEEE, 2022. http://dx.doi.org/10.1109/uemcon54665.2022.9965732.
Texto completoNeto, Benedito G. Aguiar, Joseana M. Fechine, Silvana Cunha Costa y Menaka Muppa. "Feature Estimation for Vocal Fold Edema Detection Using Short-Term Cepstral Analysis". En 2007 IEEE 7th International Symposium on BioInformatics and BioEngineering. IEEE, 2007. http://dx.doi.org/10.1109/bibe.2007.4375707.
Texto completoTurrisi, Rosanna, Raffaele Tavarone y Leonardo Badino. "Improving Generalization of Vocal Tract Feature Reconstruction: From Augmented Acoustic Inversion to Articulatory Feature Reconstruction without Articulatory Data". En 2018 IEEE Spoken Language Technology Workshop (SLT). IEEE, 2018. http://dx.doi.org/10.1109/slt.2018.8639537.
Texto completoMoura, Shayenne y Marcelo Queiroz. "Instrumental Sensibility of Vocal Detector Based on Spectral Features". En Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10451.
Texto completoGumuscu, Abdulkadir, Kerim Karadag, Mehmet Emin Tenekeci y Ibrahim Berkan Aydilek. "Genetic algorithm based feature selection on diagnosis of Parkinson disease via vocal analysis". En 2017 25th Signal Processing and Communications Applications Conference (SIU). IEEE, 2017. http://dx.doi.org/10.1109/siu.2017.7960384.
Texto completoInformes sobre el tema "Vocal feature"
Pedersen, Gjertrud. Symphonies Reframed. Norges Musikkhøgskole, agosto de 2018. http://dx.doi.org/10.22501/nmh-ar.481294.
Texto completo