Zeitschriftenartikel zum Thema „Acoustic speech features“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Acoustic speech features" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Masih, Dawa A. A., Nawzad K. Jalal, Manar N. A. Mohammed und Sulaiman A. Mustafa. „The Assessment of Acoustical Characteristics for Recent Mosque Buildings in Erbil City of Iraq“. ARO-THE SCIENTIFIC JOURNAL OF KOYA UNIVERSITY 9, Nr. 1 (01.03.2021): 51–66. http://dx.doi.org/10.14500/aro.10784.
Der volle Inhalt der QuelleVyaltseva, Darya. „Acoustic Features of Twins’ Speech“. Vestnik Volgogradskogo gosudarstvennogo universiteta. Serija 2. Jazykoznanije 16, Nr. 3 (15.11.2017): 227–34. http://dx.doi.org/10.15688/jvolsu2.2017.3.24.
Der volle Inhalt der QuelleSepulveda-Sepulveda, Alexander, und German Castellanos-Domínguez. „Time-Frequency Energy Features for Articulator Position Inference on Stop Consonants“. Ingeniería y Ciencia 8, Nr. 16 (30.11.2012): 37–56. http://dx.doi.org/10.17230/ingciencia.8.16.2.
Der volle Inhalt der QuelleIshimoto, Yuichi, und Noriko Suzuki. „Acoustic features of speech after glossectomy“. Journal of the Acoustical Society of America 120, Nr. 5 (November 2006): 3350–51. http://dx.doi.org/10.1121/1.4781416.
Der volle Inhalt der QuelleShuiskaya, Tatiana V., und Svetlana V. Androsova. „ACOUSTIC FEATURES OF CHILD SPEECH SOUNDS: CONSONANTS“. Theoretical and Applied Linguistics 2, Nr. 3 (2016): 123–37. http://dx.doi.org/10.22250/2410-7190_2016_2_3_123_137.
Der volle Inhalt der QuelleKobayashi, Maori, Yasuhiro Hamada und Masato Akagi. „Acoustic features in speech for emergency perception“. Journal of the Acoustical Society of America 144, Nr. 3 (September 2018): 1835. http://dx.doi.org/10.1121/1.5068086.
Der volle Inhalt der QuelleRoh, Yong-Wan, Dong-Ju Kim, Woo-Seok Lee und Kwang-Seok Hong. „Novel acoustic features for speech emotion recognition“. Science in China Series E: Technological Sciences 52, Nr. 7 (09.06.2009): 1838–48. http://dx.doi.org/10.1007/s11431-009-0204-3.
Der volle Inhalt der QuelleYamamoto, Katsuhiko, Toshio Irino, Toshie Matsui, Shoko Araki, Keisuke Kinoshita und Tomohiro Nakatani. „Analysis of acoustic features for speech intelligibility prediction models analysis of acoustic features for speech intelligibility prediction models“. Journal of the Acoustical Society of America 140, Nr. 4 (Oktober 2016): 3114. http://dx.doi.org/10.1121/1.4969744.
Der volle Inhalt der QuelleJiang, Wei, Zheng Wang, Jesse S. Jin, Xianfeng Han und Chunguang Li. „Speech Emotion Recognition with Heterogeneous Feature Unification of Deep Neural Network“. Sensors 19, Nr. 12 (18.06.2019): 2730. http://dx.doi.org/10.3390/s19122730.
Der volle Inhalt der QuelleZlokarnik, Igor. „Adding articulatory features to acoustic features for automatic speech recognition“. Journal of the Acoustical Society of America 97, Nr. 5 (Mai 1995): 3246. http://dx.doi.org/10.1121/1.411699.
Der volle Inhalt der QuelleByun, Sung-Woo, und Seok-Pil Lee. „A Study on a Speech Emotion Recognition System with Effective Acoustic Features Using Deep Learning Algorithms“. Applied Sciences 11, Nr. 4 (21.02.2021): 1890. http://dx.doi.org/10.3390/app11041890.
Der volle Inhalt der QuelleLang, Haitao, und Jie Yang. „Speech Enhancement Based on Fusion of Both Magnitude/Phase-Aware Features and Targets“. Electronics 9, Nr. 7 (10.07.2020): 1125. http://dx.doi.org/10.3390/electronics9071125.
Der volle Inhalt der QuelleYoon, Yang-soo, Yongxin Li und Qian-Jie Fu. „Speech Recognition and Acoustic Features in Combined Electric and Acoustic Stimulation“. Journal of Speech, Language, and Hearing Research 55, Nr. 1 (Februar 2012): 105–24. http://dx.doi.org/10.1044/1092-4388(2011/10-0325).
Der volle Inhalt der QuelleHarding, Philip, und Ben Milner. „Reconstruction-based speech enhancement from robust acoustic features“. Speech Communication 75 (Dezember 2015): 62–75. http://dx.doi.org/10.1016/j.specom.2015.09.011.
Der volle Inhalt der QuelleMorton, John, Mitchell Sommers, Steven Lulich, Abeer Alwan und Harish Arsikere. „Acoustic features mediating height estimation from human speech“. Journal of the Acoustical Society of America 134, Nr. 5 (November 2013): 4072. http://dx.doi.org/10.1121/1.4830873.
Der volle Inhalt der QuelleONOE, K., S. SATO, S. HOMMA, A. KOBAYASHI, T. IMAI und T. TAKAGI. „Bi-Spectral Acoustic Features for Robust Speech Recognition“. IEICE Transactions on Information and Systems E91-D, Nr. 3 (01.03.2008): 631–34. http://dx.doi.org/10.1093/ietisy/e91-d.3.631.
Der volle Inhalt der QuelleTursunov, Anvarjon, Soonil Kwon und Hee-Suk Pang. „Discriminating Emotions in the Valence Dimension from Speech Using Timbre Features“. Applied Sciences 9, Nr. 12 (17.06.2019): 2470. http://dx.doi.org/10.3390/app9122470.
Der volle Inhalt der Quellede Boer, Janna, Alban Voppel, Frank Wijnen und Iris Sommer. „T59. ACOUSTIC SPEECH MARKERS FOR SCHIZOPHRENIA“. Schizophrenia Bulletin 46, Supplement_1 (April 2020): S253—S254. http://dx.doi.org/10.1093/schbul/sbaa029.619.
Der volle Inhalt der QuelleSuire, Alexandre, Arnaud Tognetti, Valérie Durand, Michel Raymond und Melissa Barkat-Defradas. „Speech Acoustic Features: A Comparison of Gay Men, Heterosexual Men, and Heterosexual Women“. Archives of Sexual Behavior 49, Nr. 7 (31.03.2020): 2575–83. http://dx.doi.org/10.1007/s10508-020-01665-3.
Der volle Inhalt der QuelleNiwano, Katsuko, und Kuniaki Sugai. „Acoustic Determinants Eliciting Japanese Infants' Vocal Response to Maternal Speech“. Psychological Reports 90, Nr. 1 (Februar 2002): 83–90. http://dx.doi.org/10.2466/pr0.2002.90.1.83.
Der volle Inhalt der QuelleAl Mahmud, Nahyan, und Shahfida Amjad Munni. „Qualitative Analysis of PLP in LSTM for Bangla Speech Recognition“. International journal of Multimedia & Its Applications 12, Nr. 5 (30.10.2020): 1–8. http://dx.doi.org/10.5121/ijma.2020.12501.
Der volle Inhalt der QuelleC, Gunasekar, Sabrigirinathan C, Vinayagavel K und Ramkumar K. „The acoustic parameters for analysing speech with complete dentures“. International Journal of Dental Research 5, Nr. 2 (06.07.2017): 115. http://dx.doi.org/10.14419/ijdr.v5i2.7789.
Der volle Inhalt der QuelleAmano, Akio. „Speech recognition apparatus capable of discriminating between similar acoustic features of speech“. Journal of the Acoustical Society of America 94, Nr. 1 (Juli 1993): 613. http://dx.doi.org/10.1121/1.408210.
Der volle Inhalt der QuelleZhang, Zhan, Yuehai Wang und Jianyi Yang. „Accent Recognition with Hybrid Phonetic Features“. Sensors 21, Nr. 18 (18.09.2021): 6258. http://dx.doi.org/10.3390/s21186258.
Der volle Inhalt der QuelleLee, Moa, und Joon-Hyuk Chang. „Augmented Latent Features of Deep Neural Network-Based Automatic Speech Recognition for Motor-Driven Robots“. Applied Sciences 10, Nr. 13 (02.07.2020): 4602. http://dx.doi.org/10.3390/app10134602.
Der volle Inhalt der QuelleSwarna Kuchibhotla, Dr, und Mr Niranjan M.S.R. „Emotional Classification of Acoustic Information With Optimal Feature Subset Selection Methods“. International Journal of Engineering & Technology 7, Nr. 2.32 (31.05.2018): 39. http://dx.doi.org/10.14419/ijet.v7i2.32.13521.
Der volle Inhalt der QuelleMissaoui, Ibrahim, und Zied Lachiri. „An Extraction Method of Acoustic Features for Speech Recognition“. Research Journal of Applied Sciences, Engineering and Technology 12, Nr. 9 (05.05.2016): 964–67. http://dx.doi.org/10.19026/rjaset.12.2814.
Der volle Inhalt der QuelleShahnawazuddin, Syed, Rohit Sinha und Gayadhar Pradhan. „Pitch-Normalized Acoustic Features for Robust Children's Speech Recognition“. IEEE Signal Processing Letters 24, Nr. 8 (August 2017): 1128–32. http://dx.doi.org/10.1109/lsp.2017.2705085.
Der volle Inhalt der QuelleKubo, Rieko, und Masato Akagi. „Acoustic features of intelligible speech produced under reverberant environments“. Journal of the Acoustical Society of America 144, Nr. 3 (September 2018): 1802. http://dx.doi.org/10.1121/1.5067954.
Der volle Inhalt der QuelleRosenhouse, Judith K. „Assessing acoustic features in the speech of asylum seekers“. Journal of the Acoustical Society of America 133, Nr. 5 (Mai 2013): 3244. http://dx.doi.org/10.1121/1.4805198.
Der volle Inhalt der QuelleNasir, Md, Brian Robert Baucom, Panayiotis Georgiou und Shrikanth Narayanan. „Predicting couple therapy outcomes based on speech acoustic features“. PLOS ONE 12, Nr. 9 (21.09.2017): e0185123. http://dx.doi.org/10.1371/journal.pone.0185123.
Der volle Inhalt der QuelleRomigh, Griffin, Clayton Rothwell, Brandon Greenwell und Meagan Newman. „Modeling uncertainty in spontaneous speech: Lexical and acoustic features“. Journal of the Acoustical Society of America 140, Nr. 4 (Oktober 2016): 3401. http://dx.doi.org/10.1121/1.4970912.
Der volle Inhalt der QuelleZvarevashe, Kudakwashe, und Oludayo Olugbara. „Ensemble Learning of Hybrid Acoustic Features for Speech Emotion Recognition“. Algorithms 13, Nr. 3 (22.03.2020): 70. http://dx.doi.org/10.3390/a13030070.
Der volle Inhalt der QuelleBuckley, Daniel P., Manuel Diaz Cadiz, Tanya L. Eadie und Cara E. Stepp. „Acoustic Model of Perceived Overall Severity of Dysphonia in Adductor-Type Laryngeal Dystonia“. Journal of Speech, Language, and Hearing Research 63, Nr. 8 (10.08.2020): 2713–22. http://dx.doi.org/10.1044/2020_jslhr-19-00354.
Der volle Inhalt der QuelleDuffy, Joseph R., Edythe A. Strand, Heather Clark, Mary Machulda, Jennifer L. Whitwell und Keith A. Josephs. „Primary Progressive Apraxia of Speech: Clinical Features and Acoustic and Neurologic Correlates“. American Journal of Speech-Language Pathology 24, Nr. 2 (Mai 2015): 88–100. http://dx.doi.org/10.1044/2015_ajslp-14-0174.
Der volle Inhalt der QuelleOh, Yoo Rhee, Kiyoung Park und Jeon Gyu Park. „Online Speech Recognition Using Multichannel Parallel Acoustic Score Computation and Deep Neural Network (DNN)- Based Voice-Activity Detector“. Applied Sciences 10, Nr. 12 (14.06.2020): 4091. http://dx.doi.org/10.3390/app10124091.
Der volle Inhalt der QuelleBae, Youkyung, David P. Kuehn, Charles A. Conway und Bradley P. Sutton. „Real-Time Magnetic Resonance Imaging of Velopharyngeal Activities with Simultaneous Speech Recordings“. Cleft Palate-Craniofacial Journal 48, Nr. 6 (November 2011): 695–707. http://dx.doi.org/10.1597/09-158.
Der volle Inhalt der QuelleXiong, Feifei, Stefan Goetze, Birger Kollmeier und Bernd T. Meyer. „Exploring Auditory-Inspired Acoustic Features for Room Acoustic Parameter Estimation From Monaural Speech“. IEEE/ACM Transactions on Audio, Speech, and Language Processing 26, Nr. 10 (Oktober 2018): 1809–20. http://dx.doi.org/10.1109/taslp.2018.2843537.
Der volle Inhalt der QuelleKuchibhotla, Swarna, Hima Deepthi Vankayalapati und Koteswara Rao Anne. „An optimal two stage feature selection for speech emotion recognition using acoustic features“. International Journal of Speech Technology 19, Nr. 4 (02.08.2016): 657–67. http://dx.doi.org/10.1007/s10772-016-9358-0.
Der volle Inhalt der QuelleRen, Guofeng, Guicheng Shao und Jianmei Fu. „Articulatory-to-Acoustic Conversion Using BiLSTM-CNN Word-Attention-Based Method“. Complexity 2020 (26.09.2020): 1–10. http://dx.doi.org/10.1155/2020/4356981.
Der volle Inhalt der QuelleParjane, Natalia, Sunghye Cho, Sharon Ash, Katheryn A. Q. Cousins, Sanjana Shellikeri, Mark Liberman, Leslie M. Shaw, David J. Irwin, Murray Grossman und Naomi Nevler. „Digital Speech Analysis in Progressive Supranuclear Palsy and Corticobasal Syndromes“. Journal of Alzheimer's Disease 82, Nr. 1 (29.06.2021): 33–45. http://dx.doi.org/10.3233/jad-201132.
Der volle Inhalt der QuelleBrodbeck, Christian, Alex Jiao, L. Elliot Hong und Jonathan Z. Simon. „Neural speech restoration at the cocktail party: Auditory cortex recovers masked speech of both attended and ignored speakers“. PLOS Biology 18, Nr. 10 (22.10.2020): e3000883. http://dx.doi.org/10.1371/journal.pbio.3000883.
Der volle Inhalt der QuelleCherif, Youssouf Ismail, und Abdelhakim Dahimene. „IMPROVED VOICE-BASED BIOMETRICS USING MULTI-CHANNEL TRANSFER LEARNING“. IADIS INTERNATIONAL JOURNAL ON COMPUTER SCIENCE AND INFORMATION SYSTEMS 15, Nr. 1 (07.10.2020): 99–113. http://dx.doi.org/10.33965/ijcsis_2020150108.
Der volle Inhalt der QuelleDehaene-Lambertz, G. „Cerebral Specialization for Speech and Non-Speech Stimuli in Infants“. Journal of Cognitive Neuroscience 12, Nr. 3 (Mai 2000): 449–60. http://dx.doi.org/10.1162/089892900562264.
Der volle Inhalt der QuelleDing, Nai, und Jonathan Z. Simon. „Neural coding of continuous speech in auditory cortex during monaural and dichotic listening“. Journal of Neurophysiology 107, Nr. 1 (Januar 2012): 78–89. http://dx.doi.org/10.1152/jn.00297.2011.
Der volle Inhalt der QuelleZahorian, Stephen A., Hongbing Hu und Jiang Wu. „Time/frequency resolution of acoustic features for automatic speech recognition.“ Journal of the Acoustical Society of America 128, Nr. 4 (Oktober 2010): 2324. http://dx.doi.org/10.1121/1.3508203.
Der volle Inhalt der QuelleKusumoto, Akiko, und Nancy Vaughan. „Comparison of acoustic features of time‐compressed and natural speech“. Journal of the Acoustical Society of America 116, Nr. 4 (Oktober 2004): 2600–2601. http://dx.doi.org/10.1121/1.4785377.
Der volle Inhalt der QuelleMikumo, Mariko. „Relationship between the acoustic features and impression evaluation in speech“. Proceedings of the Annual Convention of the Japanese Psychological Association 79 (22.09.2015): 3AM—072–3AM—072. http://dx.doi.org/10.4992/pacjpa.79.0_3am-072.
Der volle Inhalt der QuelleValente, Fabio, Mathew Magimai Doss, Christian Plahl, Suman Ravuri und Wen Wang. „Transcribing Mandarin Broadcast Speech Using Multi-Layer Perceptron Acoustic Features“. IEEE Transactions on Audio, Speech, and Language Processing 19, Nr. 8 (November 2011): 2439–50. http://dx.doi.org/10.1109/tasl.2011.2139206.
Der volle Inhalt der QuelleChan, C. P., P. C. Ching und Tan Lee. „Noisy speech recognition using de-noised multiresolution analysis acoustic features“. Journal of the Acoustical Society of America 110, Nr. 5 (November 2001): 2567–74. http://dx.doi.org/10.1121/1.1398054.
Der volle Inhalt der Quelle