Добірка наукової літератури з теми "Vocal feature"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Vocal feature".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Vocal feature"
Keyser, Samuel Jay, and Kenneth N. Stevens. "Feature geometry and the vocal tract." Phonology 11, no. 2 (August 1994): 207–36. http://dx.doi.org/10.1017/s0952675700001950.
Повний текст джерелаLv, Chaohui, Hua Lan, Ying Yu, and Shengnan Li. "Objective Evaluation Method of Broadcasting Vocal Timbre Based on Feature Selection." Wireless Communications and Mobile Computing 2022 (May 26, 2022): 1–17. http://dx.doi.org/10.1155/2022/7086599.
Повний текст джерелаWang, Fenqi, Delin Deng, and Ratree Wayland. "The acoustic profiles of vocal emotions in Japanese: A corpus study with generalized additive mixed modeling." Journal of the Acoustical Society of America 152, no. 4 (October 2022): A60—A61. http://dx.doi.org/10.1121/10.0015548.
Повний текст джерелаJayanthi Kumari, T. R., and H. S. Jayanna. "i-Vector-Based Speaker Verification on Limited Data Using Fusion Techniques." Journal of Intelligent Systems 29, no. 1 (May 3, 2018): 565–82. http://dx.doi.org/10.1515/jisys-2017-0047.
Повний текст джерелаLahiri, Rimita, Md Nasir, Manoj Kumar, So Hyun Kim, Somer Bishop, Catherine Lord, and Shrikanth Narayanan. "Interpersonal synchrony across vocal and lexical modalities in interactions involving children with autism spectrum disorder." JASA Express Letters 2, no. 9 (September 2022): 095202. http://dx.doi.org/10.1121/10.0013421.
Повний текст джерелаWu, Yunfeng, Pinnan Chen, Yuchen Yao, Xiaoquan Ye, Yugui Xiao, Lifang Liao, Meihong Wu, and Jian Chen. "Dysphonic Voice Pattern Analysis of Patients in Parkinson’s Disease Using Minimum Interclass Probability Risk Feature Selection and Bagging Ensemble Learning Methods." Computational and Mathematical Methods in Medicine 2017 (2017): 1–11. http://dx.doi.org/10.1155/2017/4201984.
Повний текст джерелаMatassini, Lorenzo, Rainer Hegger, Holger Kantz, and Claudia Manfredi. "Analysis of vocal disorders in a feature space." Medical Engineering & Physics 22, no. 6 (July 2000): 413–18. http://dx.doi.org/10.1016/s1350-4533(00)00048-5.
Повний текст джерелаSHIMADA M., Yohko. "Feature of infants' sound in overlapping vocal communication." Proceedings of the Annual Convention of the Japanese Psychological Association 75 (September 15, 2011): 2PM077. http://dx.doi.org/10.4992/pacjpa.75.0_2pm077.
Повний текст джерелаHoq, Muntasir, Mohammed Nazim Uddin, and Seung-Bo Park. "Vocal Feature Extraction-Based Artificial Intelligent Model for Parkinson’s Disease Detection." Diagnostics 11, no. 6 (June 11, 2021): 1076. http://dx.doi.org/10.3390/diagnostics11061076.
Повний текст джерелаZang, Lu. "Investigation on the Extraction Methods of Timbre Features in Vocal Singing Based on Machine Learning." Computational Intelligence and Neuroscience 2022 (September 17, 2022): 1–11. http://dx.doi.org/10.1155/2022/5074829.
Повний текст джерелаДисертації з теми "Vocal feature"
Moore, Elliot II. "Evaluating objective feature statistics of speech as indicators of vocal affect and depression." Diss., Georgia Institute of Technology, 2003. http://hdl.handle.net/1853/5346.
Повний текст джерелаMoore, Elliot. "Evaluating objective feature statistics of speech as indicators of vocal affect and depression." Available online, Georgia Institute of Technology, 2004:, 2003. http://etd.gatech.edu/theses/available/etd-04062004-164738/unrestricted/moore%5Felliot%5F200312%5Fphd.pdf.
Повний текст джерелаCarvalho, Raphael Torres Santos. "Transformada Wavelet na detecÃÃo de patologias da laringe." Universidade Federal do CearÃ, 2012. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=8908.
Повний текст джерелаA quantidade de mÃtodos nÃo invasivos de diagnÃstico tem aumentado devido à necessidade de exames simples, rÃpidos e indolores. Por conta do crescimento da tecnologia que fornece os meios necessÃrios para a extraÃÃo e processamento de sinais, novos mÃtodos de anÃlise tÃm sido desenvolvidos para compreender a complexidade dos sinais de voz. Este trabalho de dissertaÃÃo apresenta uma nova ideia para caracterizar os sinais de voz saudÃvel e patolÃgicos baseado em uma ferramenta matemÃtica amplamente conhecida na literatura, a Transformada Wavelet (WT). O conjunto de dados utilizado neste trabalho consiste de 60 amostras de vozes divididas em quatro classes de amostras, uma de indivÃduos saudÃveis e as outras trÃs de pessoas com nÃdulo vocal, edema de Reinke e disfonia neurolÃgica. Todas as amostras foram gravadas usando a vogal sustentada /a/ do PortuguÃs Brasileiro. Os resultados obtidos por todos os classificadores de padrÃes estudados mostram que a abordagem proposta usando WT à uma tÃcnica adequada para discriminaÃÃo entre vozes saudÃvel e patolÃgica, e apresentaram resultados similares ou superiores a da tÃcnica clÃssica quanto à taxa de reconhecimento.
The amount of non-invasive methods of diagnosis has increased due to the need for simple, quick and painless tests. Due to the growth of technology that provides the means for extraction and signal processing, new analytical methods have been developed to help the understanding of analysis of the complexity of the voice signals. This dissertation presents a new idea to characterize signals of healthy and pathological voice based on one mathematical tools widely known in the literature, Wavelet Transform (WT). The speech data were used in this work consists of 60 voice samples divided into four classes of samples: one from healthy individuals and three from people with vocal fold nodules, Reinkeâs edema and neurological dysphonia. All the samples were recorded using the vowel /a/ in Brazilian Portuguese. The obtained results by all the pattern classifiers studied indicate that the proposed approach using WT is a suitable technique to discriminate between healthy and pathological voices, since they perform similarly to or even better than classical technique, concerning recognition rates.
Wildermoth, Brett Richard, and n/a. "Text-Independent Speaker Recognition Using Source Based Features." Griffith University. School of Microelectronic Engineering, 2001. http://www4.gu.edu.au:8080/adt-root/public/adt-QGU20040831.115646.
Повний текст джерелаWildermoth, Brett Richard. "Text-Independent Speaker Recognition Using Source Based Features." Thesis, Griffith University, 2001. http://hdl.handle.net/10072/366289.
Повний текст джерелаThesis (Masters)
Master of Philosophy (MPhil)
School of Microelectronic Engineering
Faculty of Engineering and Information Technology
Full Text
Horwitz-Martin, Rachelle (Rachelle Laura). "Vocal modulation features in the prediction of major depressive disorder severity." Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/93072.
Повний текст джерела"September 2014." Cataloged from PDF version of thesis.
Includes bibliographical references (pages 113-115).
This thesis develops a model of vocal modulations up to 50 Hz in sustained vowels as a basis for biomarkers of neurological disease, particularly Major Depressive Disorder (MDD). Two model components contribute to amplitude modulation (AM): AM from respiratory muscles and from interaction between formants and frequency modulation in the fundamental frequency harmonics. Based on the modulation model, we test three methods to extract the envelope of the third formant from which features are extracted using sustained vowels from the 2013 AudioNisual Emotion Challenge. Using a Gaussian-Mixture-Model-based predictor, we evaluate performance of each feature in predicting subjects' Beck MDD severity score by the root mean square error (RMSE), mean absolute error (MAE), and Spearman correlation between the actual Beck score and predicted score. Our lowest MAE and RMSE values are 8.46 and 10.32, respectively (Spearman correlation=0.487, p<0.001), relative to the mean MAE of 10.05 and mean RMSE of 11.86.
by Rachelle L. Horwitz.
S.M.
GarciÌa, MariÌa Susana Avila. "Automatic tracking of 3D vocal tract features during speech production using MRI." Thesis, University of Southampton, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.437111.
Повний текст джерелаMarchetto, Enrico. "Automatic Speaker Recognition and Characterization by means of Robust Vocal Source Features." Doctoral thesis, Università degli studi di Padova, 2011. http://hdl.handle.net/11577/3427390.
Повний текст джерелаIl Riconoscimento Automatico del Parlatore rappresenta un campo di ricerca esteso, che comprende molti argomenti: elaborazione del segnale, fisiologia vocale e dell'apparato uditivo, strumenti di modellazione statistica, studio del linguaggio, ecc. Lo studio di queste tecniche è iniziato circa trenta anni fa e, da allora, ci sono stati grandi miglioramenti. Nondimeno, il campo di ricerca continua a porre questioni e, in tutto il mondo, gruppi di ricerca continuano a lavorare per ottenere sistemi di riconoscimento più affidabili e con prestazioni migliori. La presente tesi documenta un progetto di Philosophiae Doctor finanziato dall'Azienda privata RT - Radio Trevisan Elettronica Industriale S.p.A. Il titolo della borsa di studio è "Riconoscimento automatico del parlatore con applicazioni alla sicurezza e all'intelligence". Parte del lavoro ha avuto luogo durante una visita, durata sei mesi, presso lo Speech, Music and Hearing Department del KTH - Royal Institute of Technology di Stoccolma. La ricerca inerente il Riconoscimento del Parlatore sviluppa tecnologie per associare automaticamente una data voce umana ad una versione precedentemente registrata della stessa. Il Riconoscimento del Parlatore (Speaker Recognition) viene solitamente meglio definito in termini di Verifica o di Identificazione del Parlatore (in letteratura Speaker Verification o Speaker Identification, rispettivamente). L'Identificazione consiste nel recupero dell'identità di una voce fra un numero (anche alto) di voci modellate dal sistema; nella Verifica invece, date una voce ed una identità, si chiede al sistema di verificare l'associazione tra le due. I sistemi di riconoscimento producono anche un punteggio (Score) che attesta l'attendibilità della risposta fornita. La prima Parte della tesi propone una revisione dello stato dell'arte circa il Riconoscimento del Parlatore. Vengono descritte le componenti principali di un prototipo per il riconoscimento: estrazione di Features audio, modellazione statistica e verifica delle prestazioni. Nel tempo, la comunità di ricerca ha sviluppato una quantità di Features Acustiche: si tratta di tecniche per descrivere numericamente il segnale vocale in modo compatto e deterministico. In ogni applicazione di riconoscimento, anche per le parole o il linguaggio (Speech o Language Recognition), l'estrazione di Features è il primo passo: ha lo scopo di ridurre drasticamente la dimensione dei dati di ingresso, ma senza perdere alcuna informazione significativa. La scelta delle Features più idonee ad una specifica applicazione, e la loro taratura, sono cruciali per ottenere buoni risultati di riconoscimento; inoltre, la definizione di nuove features costituisce un attivo campo di ricerca perché la comunità scientifica ritiene che le features esistenti siano ancora lontane dallo sfruttamento dell'intera informazione portata dal segnale vocale. Alcune Features si sono affermate nel tempo per le loro migliori prestazioni: Coefficienti Cepstrali in scala Mel (Mel-Frequency Cepstral Coefficients) e Coefficienti di Predizione Lineare (Linear Prediction Coefficients); tali Features vengono descritte nella Parte I. Viene introdotta anche la modellazione statistica, spiegando la struttura dei Modelli a Misture di Gaussiane (Gaussian Mixture Models) ed il relativo algoritmo di addestramento (Expectation-Maximization). Tecniche di modellazione specifiche, quali Universal Background Model, completano poi la descrizione degli strumenti statistici usati per il riconoscimento. Lo Scoring rappresenta, infine, la fase di produzione dei risultati da parte del sistema di riconoscimento; comprende diverse procedure di normalizzazione che compensano, ad esempio, i problemi di modellazione o le diverse condizioni acustiche con cui i dati audio sono stati registrati. La Parte I prosegue poi presentando alcuni database audio usati comunemente in letteratura quali riferimento per il confronto delle prestazioni dei sistemi di riconoscimento; in particolare, vengono presentati TIMIT e NIST Speaker Recognition Evaluation (SRE) 2004. Tali database sono adatti alla valutazione delle prestazioni su audio di natura telefonica, di interesse per la presente tesi; tale argomento verrà ulteriormente discusso nella Parte II. Durante il progetto di PhD è stato progettato e realizzato un prototipo di sistema di riconoscimento, discusso nella Parte II. Il primo Capitolo descrive l'applicazione di riconoscimento proposta; la tecnologia per Riconoscimento del Parlatore viene applicate alle linee telefoniche, con riferimento alla sicurezza e all'intelligence. L'applicazione risponde a una specifica necessità delle Autorità quando le investigazioni coinvolgono intercettazioni telefoniche. In questi casi le Autorità devono ascoltare grandi quantità di dati telefonici, la maggior parte dei quali risulta essere inutile ai fini investigativi. L'idea applicativa consiste nell'identificazione e nell'etichettatura automatiche dei parlatori presenti nelle intercettazioni, permettendo così la ricerca di uno specifico parlatore presente nella collezione di registrazioni. Questo potrebbe ridurre gli sprechi di tempo, ottenendo così vantaggi economici. L'audio proveniente da linee telefoniche pone difficoltà al riconoscimento automatico, perché degrada significativamente il segnale e peggiora quindi le prestazioni. Vengono generalmente riconosciute alcune problematiche del segnale audio telefonico: banda ridotta, rumore additivo e rumore convolutivo; quest'ultimo causa distorsione di fase, che altera la forma d'onda del segnale. Il secondo Capitolo della Parte II descrive in dettaglio il sistema di Riconoscimento del Parlatore sviluppato; vengono discusse le diverse scelte di progettazione. Sono state sviluppate le componenti fondamentali di un sistema di riconoscimento, con alcune migliorie per contenere il carico computazionale. Durante lo sviluppo si è ritenuto primario lo scopo di ricerca del software da realizzare: è stato profuso molto impegno per ottenere un sistema con buone prestazioni, che però rimanesse semplice da modificare anche in profondità. La necessità (ed opportunità) di verificare le prestazioni del prototipo ha posto ulteriori requisiti allo sviluppo, che sono stati soddisfatti mediante l'adozione di un'interfaccia comune ai diversi database. Infine, tutti i moduli del software sviluppato possono essere eseguiti su un Cluster di Calcolo (calcolatore ad altre prestazioni per il calcolo parallelo); questa caratteristica del prototipo è stata cruciale per permettere una approfondita valutazione delle prestazioni del software in tempi ragionevoli. Durante il lavoro svolto per il progetto di Dottorato sono stati condotti studi affini al Riconoscimento del Parlatore, ma non direttamente correlati ad esso. Questi sviluppi vengono descritti nella Parte II quali estensioni del prototipo. Viene innanzitutto presentato un Rilevatore di Parlato (Voice Activity Detector) adatto all'impiego in presenza di rumore. Questo componente assume particolare importanza quale primo passo dell'estrazione delle Features: è necessario infatti selezionare e mantenere solo i segmenti audio che contengono effettivamente segnale vocale. In situazioni con rilevante rumore di fondo i semplici approcci a "soglia di energia" falliscono. Il Rilevatore realizzato è basato su Features avanzate, ottenute mediante le Trasformate Wavelet, ulteriormente elaborate mediante una sogliatura adattiva. Una seconda applicazione consiste in un prototipo per la Speaker Diarization, ovvero l'etichettatura automatica di registrazioni audio contenenti diversi parlatori. Il risultato del procedimento consiste nella segmentazione dell'audio ed in una serie di etichette, una per ciascun segmento; il sistema fornisce una risposta del tipo "chi parla quando". Il terzo ed ultimo studio collaterale al Riconoscimento del Parlatore consiste nello sviluppo di un sistema di Riduzione del Rumore (Noise Reduction) su piattaforma hardware DSP dedicata. L'algoritmo di Riduzione individua il rumore in modo adattivo e lo riduce, cercando di mantenere solo il segnale vocale; l'elaborazione avviene in tempo reale, pur usando solo una parte molto limitata delle risorse di calcolo del DSP. La Parte III della tesi introduce, infine, Features audio innovative, che costituiscono il principale contributo innovativo della tesi. Tali Features sono ottenute dal flusso glottale, quindi il primo Capitolo della Parte discute l'anatomia del tratto e delle corde vocali. Viene descritto il principio di funzionamento della fonazione e l'importanza della fisica delle corde vocali. Il flusso glottale costituisce un ingresso per il tratto vocale, che agisce come un filtro. Viene descritto uno strumento software open-source per l'inversione del tratto vocale: esso permette la stima del flusso glottale a partire da semplici registrazioni vocali. Alcuni dei metodi usati per caratterizzare numericamente il flusso glottale vengono infine esposti. Nel Capitolo successivo viene presentata la definizione delle nuove Features glottali. Le stime del flusso glottale non sono sempre affidabili quindi, durante l'estrazione delle nuove Features, il primo passo individua ed esclude i flussi giudicati non attendibili. Una procedure numerica provvede poi a raggruppare ed ordinare le stime dei flussi, preparandoli per la modellazione statistica. Le Features glottali, applicate al Riconoscimento del Parlatore sui database TIMIT e NIST SRE 2004, vengono comparate alle Features standard. Il Capitolo finale della Parte III è dedicato ad un diverso lavoro di ricerca, comunque correlato alla caratterizzazione del flusso glottale. Viene presentato un modello fisico delle corde vocali, controllato da alcune regole numeriche, in grado di descrivere la dinamica delle corde stesse. Le regole permettono di tradurre una specifica impostazione dei muscoli glottali nei parametri meccanici del modello, che portano ad un preciso flusso glottale (ottenuto dopo una simulazione al computer del modello). Il cosiddetto Problema Inverso è definito nel seguente modo: dato un flusso glottale si chiede di trovare una impostazione dei muscoli glottali che, usata per guidare il modello fisico, permetta la risintesi di un segnale glottale il più possibile simile a quello dato. Il problema inverso comporta una serie di difficoltà, quali la non-univocità dell'inversione e la sensitività alle variazioni, anche piccole, del flusso di ingresso. E' stata sviluppata una tecnica di ottimizzazione del controllo, che viene descritta. Il capitolo conclusivo della tesi riassume i risultati ottenuti. A fianco di questa discussione è presentata un piano di lavoro per lo sviluppo delle Features introdotte. Vengono infine presentate le pubblicazioni prodotte.
Almeida, N?thalee Cavalcanti de. "Sistema inteligente para diagn?stico de patologias na laringe utilizando m?quinas de vetor de suporte." Universidade Federal do Rio Grande do Norte, 2010. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15149.
Повний текст джерелаCoordena??o de Aperfei?oamento de Pessoal de N?vel Superior
The human voice is an important communication tool and any disorder of the voice can have profound implications for social and professional life of an individual. Techniques of digital signal processing have been used by acoustic analysis of vocal disorders caused by pathologies in the larynx, due to its simplicity and noninvasive nature. This work deals with the acoustic analysis of voice signals affected by pathologies in the larynx, specifically, edema, and nodules on the vocal folds. The purpose of this work is to develop a classification system of voices to help pre-diagnosis of pathologies in the larynx, as well as monitoring pharmacological treatments and after surgery. Linear Prediction Coefficients (LPC), Mel Frequency cepstral coefficients (MFCC) and the coefficients obtained through the Wavelet Packet Transform (WPT) are applied to extract relevant characteristics of the voice signal. For the classification task is used the Support Vector Machine (SVM), which aims to build optimal hyperplanes that maximize the margin of separation between the classes involved. The hyperplane generated is determined by the support vectors, which are subsets of points in these classes. According to the database used in this work, the results showed a good performance, with a hit rate of 98.46% for classification of normal and pathological voices in general, and 98.75% in the classification of diseases together: edema and nodules
A voz humana ? uma importante ferramenta de comunica??o e qualquer funcionamento inadequado da voz pode ter profundas implica??es na vida social e profissional de um indiv?duo. T?cnicas de processamento digital de sinais t?m sido utilizadas atrav?s da an?lise ac?stica de desordens vocais provocadas por patologias na laringe, devido ? sua simplicidade e natureza n?o-invasiva. Este trabalho trata da an?lise ac?stica de sinais de vozes afetadas por patologias na laringe, especificamente, edemas e n?dulos nas pregas vocais. A proposta deste trabalho ? desenvolver um sistema de classifica??o de vozes para auxiliar no pr?-diagn?stico de patologias na laringe, bem como no acompanhamento de tratamentos farmacol?gicos e p?s-cir?rgicos. Os coeficientes de Predi??o Linear (LPC), Coeficientes Cepstrais de Freq??ncia Mel (MFCC) e os coeficientes obtidos atrav?s da Transformada Wavelet Packet (WPT) s?o aplicados para extra??o de caracter?sticas relevantes do sinal de voz. ? utilizada para a tarefa de classifica??o M?quina de Vetor de Suporte (SVM), a qual tem como objetivo construir hiperplanos ?timos que maximizem a margem de separa??o entre as classes envolvidas. O hiperplano gerado ? determinado pelos vetores de suporte, que s?o subconjuntos de pontos dessas classes. De acordo com o banco de dados utilizado neste trabalho, os resultados apresentaram um bom desempenho, com taxa de acerto de 98,46% para classifica??o de vozes normais e patol?gicas em geral, e 98,75% na classifica??o de patologias entre si: edemas e n?dulos
Lovett, Victoria Anne. "Voice Features of Sjogren's Syndrome: Examination of Relative Fundamental Frequency (RFF) During Connected Speech." BYU ScholarsArchive, 2014. https://scholarsarchive.byu.edu/etd/5749.
Повний текст джерелаКниги з теми "Vocal feature"
Kizin, M. M. Russkoe vokalʹnoe iskusstvo v ėkrannoĭ kulʹture. Moskva: Izdatelʹstvo "Soglasie", 2017.
Знайти повний текст джерелаSleepless in Seattle: Music from the TriStar Pictures feature film. Miami, FL: CPP/Belwin, 1993.
Знайти повний текст джерелаAdams, David. A Handbook of Diction for Singers. 3rd ed. Oxford University PressNew York, 2022. http://dx.doi.org/10.1093/oso/9780197639504.001.0001.
Повний текст джерелаShaibani, Aziz. Dysphonia. Oxford University Press, 2018. http://dx.doi.org/10.1093/med/9780190661304.003.0008.
Повний текст джерелаOwens, Matthew, and Graham F. Welch. Choral Pedagogy and the Construction of Identity. Edited by Frank Abrahams and Paul D. Head. Oxford University Press, 2017. http://dx.doi.org/10.1093/oxfordhb/9780199373369.013.9.
Повний текст джерелаManning, Jane. Vocal Repertoire for the Twenty-First Century, Volume 1. Oxford University Press, 2020. http://dx.doi.org/10.1093/oso/9780199391028.001.0001.
Повний текст джерелаKaplan, Tamara, and Tracey Milligan. Movement Disorders 1: Tourette’s Syndrome, Essential Tremor, and Parkinson’s Disease (DRAFT). Oxford University Press, 2018. http://dx.doi.org/10.1093/med/9780190650261.003.0011.
Повний текст джерелаShaibani, Aziz. Dysphonia. Oxford University Press, 2015. http://dx.doi.org/10.1093/med/9780199898152.003.0008.
Повний текст джерелаMalawey, Victoria. A Blaze of Light in Every Word. Oxford University Press, 2020. http://dx.doi.org/10.1093/oso/9780190052201.001.0001.
Повний текст джерелаDavé, Shilpa S. Apu’s Brown Voice. University of Illinois Press, 2017. http://dx.doi.org/10.5406/illinois/9780252037405.003.0003.
Повний текст джерелаЧастини книг з теми "Vocal feature"
Bieser, Armin. "Amplitude Envelope Encoding as a Feature for Temporal Information Processing in the Auditory Cortex of Squirrel Monkeys." In Current Topics in Primate Vocal Communication, 221–33. Boston, MA: Springer US, 1995. http://dx.doi.org/10.1007/978-1-4757-9930-9_12.
Повний текст джерелаRajasekharreddy, Poreddy, and E. S. Gopi. "Feature Selection for Vocal Segmentation Using Social Emotional Optimization Algorithm." In Socio-cultural Inspired Metaheuristics, 69–91. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-6569-0_4.
Повний текст джерелаMajidnezhad, Vahid, and Igor Kheidorov. "A Novel Method for Feature Extraction in Vocal Fold Pathology Diagnosis." In Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 96–105. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-37893-5_11.
Повний текст джерелаWang, Rui, Jianli Qi, and Daifu Qiao. "An Online Vocal Music Teaching Timbre Evaluation Method Based on Feature Comparison." In Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 482–94. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-21164-5_37.
Повний текст джерелаChen, Ying, Jia-yin Chen, and Ai-ping Zhang. "Design of Mobile Teaching Platform for Vocal Piano Accompaniment Course Based on Feature Comparison." In Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 430–42. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-94554-1_34.
Повний текст джерелаCasalini, Iacopo, Marco Marini, and Luca Fanucci. "FPGA Implementation of a Configurable Vocal Feature Extraction Embedded System for Dysarthric Speech Recognition." In Lecture Notes in Electrical Engineering, 221–28. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-95498-7_31.
Повний текст джерелаChau, Chun Keung, Chak Shun Lai, and Bertram Emil Shi. "Feature vs. Model Based Vocal Tract Length Normalization for a Speech Recognition-Based Interactive Toy." In Active Media Technology, 134–43. Berlin, Heidelberg: Springer Berlin Heidelberg, 2001. http://dx.doi.org/10.1007/3-540-45336-9_17.
Повний текст джерелаKawakami, Yuta, Longbiao Wang, Atsuhiko Kai, and Seiichi Nakagawa. "Speaker Identification by Combining Various Vocal Tract and Vocal Source Features." In Text, Speech and Dialogue, 382–89. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-10816-2_46.
Повний текст джерелаRusko, Milan, and Jozef Juhár. "Towards Annotation of Nonverbal Vocal Gestures in Slovak." In Verbal and Nonverbal Features of Human-Human and Human-Machine Interaction, 255–65. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-70872-8_20.
Повний текст джерелаMadhavi, Maulik C., Shubham Sharma, and Hemant A. Patil. "Vocal Tract Length Normalization Features for Audio Search." In Text, Speech, and Dialogue, 387–95. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-24033-6_44.
Повний текст джерелаТези доповідей конференцій з теми "Vocal feature"
Ai, Jiaqi, Yi Zuo, Junxia Liu, Peichao He, Tieshan Li, and C. L. Philip Chen. "Application of hierarchical clustering analysis for vocal feature extraction." In 2019 IEEE Asia-Pacific Conference on Computer Science and Data Engineering (CSDE). IEEE, 2019. http://dx.doi.org/10.1109/csde48274.2019.9162362.
Повний текст джерелаDanilovaite, Monika. "Perceptually Motivated Feature set for Vocal Folds State Assessment." In 2020 IEEE 8th Workshop on Advances in Information, Electronic and Electrical Engineering (AIEEE). IEEE, 2021. http://dx.doi.org/10.1109/aieee51419.2021.9435765.
Повний текст джерелаLiu Fagui and Ning Jing. "A General Method of New Feature Service Development on VOCAL." In IEE Mobility Conference 2005. The Second International Conference on Mobile Technology, Applications and Systems. IEEE, 2005. http://dx.doi.org/10.1109/mtas.2005.207199.
Повний текст джерелаLiu Fagui and Ning Jing. "A general method of new feature service development on VOCAL." In IEE Mobility Conference 2005. The Second International Conference on Mobile Technology, Applications and Systems. IEE, 2005. http://dx.doi.org/10.1049/cp:20051516.
Повний текст джерелаAtmaja, Bagus Tris, and Akira Sasou. "Leveraging Pre-Trained Acoustic Feature Extractor For Affective Vocal Bursts Tasks." In 2022 Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). IEEE, 2022. http://dx.doi.org/10.23919/apsipaasc55919.2022.9980083.
Повний текст джерелаMamun, Muntasir, Md Ishtyaq Mahmud, Md Iqbal Hossain, Asm Mohaimenul Islam, Md Salim Ahammed, and Md Milon Uddin. "Vocal Feature Guided Detection of Parkinson’s Disease Using Machine Learning Algorithms." In 2022 IEEE 13th Annual Ubiquitous Computing, Electronics & Mobile Communication Conference (UEMCON). IEEE, 2022. http://dx.doi.org/10.1109/uemcon54665.2022.9965732.
Повний текст джерелаNeto, Benedito G. Aguiar, Joseana M. Fechine, Silvana Cunha Costa, and Menaka Muppa. "Feature Estimation for Vocal Fold Edema Detection Using Short-Term Cepstral Analysis." In 2007 IEEE 7th International Symposium on BioInformatics and BioEngineering. IEEE, 2007. http://dx.doi.org/10.1109/bibe.2007.4375707.
Повний текст джерелаTurrisi, Rosanna, Raffaele Tavarone, and Leonardo Badino. "Improving Generalization of Vocal Tract Feature Reconstruction: From Augmented Acoustic Inversion to Articulatory Feature Reconstruction without Articulatory Data." In 2018 IEEE Spoken Language Technology Workshop (SLT). IEEE, 2018. http://dx.doi.org/10.1109/slt.2018.8639537.
Повний текст джерелаMoura, Shayenne, and Marcelo Queiroz. "Instrumental Sensibility of Vocal Detector Based on Spectral Features." In Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10451.
Повний текст джерелаGumuscu, Abdulkadir, Kerim Karadag, Mehmet Emin Tenekeci, and Ibrahim Berkan Aydilek. "Genetic algorithm based feature selection on diagnosis of Parkinson disease via vocal analysis." In 2017 25th Signal Processing and Communications Applications Conference (SIU). IEEE, 2017. http://dx.doi.org/10.1109/siu.2017.7960384.
Повний текст джерелаЗвіти організацій з теми "Vocal feature"
Pedersen, Gjertrud. Symphonies Reframed. Norges Musikkhøgskole, August 2018. http://dx.doi.org/10.22501/nmh-ar.481294.
Повний текст джерела