Artykuły w czasopismach na temat „Audio speech recognition”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Audio speech recognition”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Beadles, Robert L. "Audio visual speech recognition". Journal of the Acoustical Society of America 87, nr 5 (maj 1990): 2274. http://dx.doi.org/10.1121/1.399137.
Pełny tekst źródłaBahal, Akriti. "Advances in Automatic Speech Recognition: From Audio-Only To Audio-Visual Speech Recognition". IOSR Journal of Computer Engineering 5, nr 1 (2012): 31–36. http://dx.doi.org/10.9790/0661-0513136.
Pełny tekst źródłaHwang, Jung-Wook, Jeongkyun Park, Rae-Hong Park i Hyung-Min Park. "Audio-visual speech recognition based on joint training with audio-visual speech enhancement for robust speech recognition". Applied Acoustics 211 (sierpień 2023): 109478. http://dx.doi.org/10.1016/j.apacoust.2023.109478.
Pełny tekst źródłaNakadai, Kazuhiro, i Tomoaki Koiwa. "Psychologically-Inspired Audio-Visual Speech Recognition Using Coarse Speech Recognition and Missing Feature Theory". Journal of Robotics and Mechatronics 29, nr 1 (20.02.2017): 105–13. http://dx.doi.org/10.20965/jrm.2017.p0105.
Pełny tekst źródłaBASYSTIUK, Oleh, i Nataliia MELNYKOVA. "MULTIMODAL SPEECH RECOGNITION BASED ON AUDIO AND TEXT DATA". Herald of Khmelnytskyi National University. Technical sciences 313, nr 5 (27.10.2022): 22–25. http://dx.doi.org/10.31891/2307-5732-2022-313-5-22-25.
Pełny tekst źródłaDupont, S., i J. Luettin. "Audio-visual speech modeling for continuous speech recognition". IEEE Transactions on Multimedia 2, nr 3 (2000): 141–51. http://dx.doi.org/10.1109/6046.865479.
Pełny tekst źródłaKubanek, M., J. Bobulski i L. Adrjanowicz. "Characteristics of the use of coupled hidden Markov models for audio-visual polish speech recognition". Bulletin of the Polish Academy of Sciences: Technical Sciences 60, nr 2 (1.10.2012): 307–16. http://dx.doi.org/10.2478/v10175-012-0041-6.
Pełny tekst źródłaKacur, Juraj, Boris Puterka, Jarmila Pavlovicova i Milos Oravec. "Frequency, Time, Representation and Modeling Aspects for Major Speech and Audio Processing Applications". Sensors 22, nr 16 (22.08.2022): 6304. http://dx.doi.org/10.3390/s22166304.
Pełny tekst źródłaShowkat Ahmad Dar, Showkat Ahmad Dar. "Emotion Recognition Based On Audio Speech". IOSR Journal of Computer Engineering 11, nr 6 (2013): 46–50. http://dx.doi.org/10.9790/0661-1164650.
Pełny tekst źródłaAucouturier, Jean-Julien, i Laurent Daudet. "Pattern recognition of non-speech audio". Pattern Recognition Letters 31, nr 12 (wrzesień 2010): 1487–88. http://dx.doi.org/10.1016/j.patrec.2010.05.003.
Pełny tekst źródłaChaturvedi, Iti, Tim Noel i Ranjan Satapathy. "Speech Emotion Recognition Using Audio Matching". Electronics 11, nr 23 (29.11.2022): 3943. http://dx.doi.org/10.3390/electronics11233943.
Pełny tekst źródłaGnanamanickam, Jenifa, Yuvaraj Natarajan i Sri Preethaa K. R. "A Hybrid Speech Enhancement Algorithm for Voice Assistance Application". Sensors 21, nr 21 (23.10.2021): 7025. http://dx.doi.org/10.3390/s21217025.
Pełny tekst źródłaConnell, Jonathan H. "Audio-only backoff in audio-visual speech recognition system". Journal of the Acoustical Society of America 125, nr 6 (2009): 4109. http://dx.doi.org/10.1121/1.3155497.
Pełny tekst źródłaHazra, Sumon Kumar, Romana Rahman Ema, Syed Md Galib, Shalauddin Kabir i Nasim Adnan. "Emotion recognition of human speech using deep learning method and MFCC features". Radioelectronic and Computer Systems, nr 4 (29.11.2022): 161–72. http://dx.doi.org/10.32620/reks.2022.4.13.
Pełny tekst źródłaRyumin, Dmitry, Denis Ivanko i Elena Ryumina. "Audio-Visual Speech and Gesture Recognition by Sensors of Mobile Devices". Sensors 23, nr 4 (17.02.2023): 2284. http://dx.doi.org/10.3390/s23042284.
Pełny tekst źródłaJeon, Sanghun, i Mun Sang Kim. "Noise-Robust Multimodal Audio-Visual Speech Recognition System for Speech-Based Interaction Applications". Sensors 22, nr 20 (12.10.2022): 7738. http://dx.doi.org/10.3390/s22207738.
Pełny tekst źródłaS.Salama, Elham, Reda A. El-Khoribi i Mahmoud E. Shoman. "Audio-Visual Speech Recognition for People with Speech Disorders". International Journal of Computer Applications 96, nr 2 (18.06.2014): 51–56. http://dx.doi.org/10.5120/16770-6337.
Pełny tekst źródłaReggiswarashari, Fauzivy, i Sari Widya Sihwi. "Speech emotion recognition using 2D-convolutional neural network". International Journal of Electrical and Computer Engineering (IJECE) 12, nr 6 (1.12.2022): 6594. http://dx.doi.org/10.11591/ijece.v12i6.pp6594-6601.
Pełny tekst źródłaS*, Manisha, Nafisa H. Saida, Nandita Gopal i Roshni P. Anand. "Bimodal Emotion Recognition using Machine Learning". International Journal of Engineering and Advanced Technology 10, nr 4 (30.04.2021): 189–94. http://dx.doi.org/10.35940/ijeat.d2451.0410421.
Pełny tekst źródłaCAO, JIANGTAO, NAOYUKI KUBOTA, PING LI i HONGHAI LIU. "THE VISUAL-AUDIO INTEGRATED RECOGNITION METHOD FOR USER AUTHENTICATION SYSTEM OF PARTNER ROBOTS". International Journal of Humanoid Robotics 08, nr 04 (grudzień 2011): 691–705. http://dx.doi.org/10.1142/s0219843611002678.
Pełny tekst źródłaStewart, Darryl, Rowan Seymour, Adrian Pass i Ji Ming. "Robust Audio-Visual Speech Recognition Under Noisy Audio-Video Conditions". IEEE Transactions on Cybernetics 44, nr 2 (luty 2014): 175–84. http://dx.doi.org/10.1109/tcyb.2013.2250954.
Pełny tekst źródłaGornostal, Alexandr, i Yaroslaw Dorogyy. "Development of audio-visual speech recognition system". ScienceRise 12, nr 1 (30.12.2017): 42–47. http://dx.doi.org/10.15587/2313-8416.2017.118212.
Pełny tekst źródłaMishra, Saumya, Anup Kumar Gupta i Puneet Gupta. "DARE: Deceiving Audio–Visual speech Recognition model". Knowledge-Based Systems 232 (listopad 2021): 107503. http://dx.doi.org/10.1016/j.knosys.2021.107503.
Pełny tekst źródłaHasegawa-Johnson, Mark A., Jui-Ting Huang, Sarah King i Xi Zhou. "Normalized recognition of speech and audio events". Journal of the Acoustical Society of America 130, nr 4 (październik 2011): 2524. http://dx.doi.org/10.1121/1.3655075.
Pełny tekst źródłaZick, Gregory L., i Lawrence Yapp. "Speech recognition of MPEG/audio encoded files". Journal of the Acoustical Society of America 112, nr 6 (2002): 2520. http://dx.doi.org/10.1121/1.1536509.
Pełny tekst źródłaNoda, Kuniaki, Yuki Yamaguchi, Kazuhiro Nakadai, Hiroshi G. Okuno i Tetsuya Ogata. "Audio-visual speech recognition using deep learning". Applied Intelligence 42, nr 4 (20.12.2014): 722–37. http://dx.doi.org/10.1007/s10489-014-0629-7.
Pełny tekst źródłaUpadhyaya, Prashant, Omar Farooq, M. R. Abidi i Priyanka Varshney. "Comparative Study of Visual Feature for Bimodal Hindi Speech Recognition". Archives of Acoustics 40, nr 4 (1.12.2015): 609–19. http://dx.doi.org/10.1515/aoa-2015-0061.
Pełny tekst źródłaSalian, Beenaa, Omkar Narvade, Rujuta Tambewagh i Smita Bharne. "Speech Emotion Recognition using Time Distributed CNN and LSTM". ITM Web of Conferences 40 (2021): 03006. http://dx.doi.org/10.1051/itmconf/20214003006.
Pełny tekst źródłaMuhammad, Ghulam, i Khalid Alghathbar. "Environment Recognition for Digital Audio Forensics Using MPEG-7 and MEL Cepstral Features". Journal of Electrical Engineering 62, nr 4 (1.07.2011): 199–205. http://dx.doi.org/10.2478/v10187-011-0032-0.
Pełny tekst źródłaWolfe, Jace, i Erin C. Schafer. "Optimizing The Benefit of Sound Processors Coupled to Personal FM Systems". Journal of the American Academy of Audiology 19, nr 08 (wrzesień 2008): 585–94. http://dx.doi.org/10.3766/jaaa.19.8.2.
Pełny tekst źródłaSaitoh, Takeshi. "Research on multi-modal silent speech recognition technology". Impact 2018, nr 3 (15.06.2018): 47–49. http://dx.doi.org/10.21820/23987073.2018.3.47.
Pełny tekst źródłaYang, Wenfeng, Pengyi Li, Wei Yang, Yuxing Liu, Yulong He, Ovanes Petrosian i Aleksandr Davydenko. "Research on Robust Audio-Visual Speech Recognition Algorithms". Mathematics 11, nr 7 (5.04.2023): 1733. http://dx.doi.org/10.3390/math11071733.
Pełny tekst źródłaGavali, A. B., Ghugarkar Pooja S., Khatake Supriya R. i Kothawale Rajnandini A. "Visual Speech Recognition Using Lips Movement". Journal of Signal Processing 9, nr 2 (29.05.2023): 1–7. http://dx.doi.org/10.46610/josp.2023.v09i02.001.
Pełny tekst źródłaHe, Yibo, Kah Phooi Seng i Li Minn Ang. "Multimodal Sensor-Input Architecture with Deep Learning for Audio-Visual Speech Recognition in Wild". Sensors 23, nr 4 (7.02.2023): 1834. http://dx.doi.org/10.3390/s23041834.
Pełny tekst źródłaKozma-Spytek, Linda, i Christian Vogler. "Factors Affecting the Accessibility of Voice Telephony for People with Hearing Loss: Audio Encoding, Network Impairments, Video and Environmental Noise". ACM Transactions on Accessible Computing 14, nr 4 (31.12.2021): 1–35. http://dx.doi.org/10.1145/3479160.
Pełny tekst źródłaAuti, Dr Nisha, Atharva Pujari, Anagha Desai, Shreya Patil, Sanika Kshirsagar i Rutika Rindhe. "Advanced Audio Signal Processing for Speaker Recognition and Sentiment Analysis". International Journal for Research in Applied Science and Engineering Technology 11, nr 5 (31.05.2023): 1717–24. http://dx.doi.org/10.22214/ijraset.2023.51825.
Pełny tekst źródłaYin, Bing, Shutong Niu, Haitao Tang, Lei Sun, Jun Du, Zhenhua Ling i Cong Liu. "An Investigation into Audio–Visual Speech Recognition under a Realistic Home–TV Scenario". Applied Sciences 13, nr 7 (23.03.2023): 4100. http://dx.doi.org/10.3390/app13074100.
Pełny tekst źródłaOng, Kah Liang, Chin Poo Lee, Heng Siong Lim i Kian Ming Lim. "Speech emotion recognition with light gradient boosting decision trees machine". International Journal of Electrical and Computer Engineering (IJECE) 13, nr 4 (1.08.2023): 4020. http://dx.doi.org/10.11591/ijece.v13i4.pp4020-4028.
Pełny tekst źródłaA, Prof Swethashree. "Speech Emotion Recognition". International Journal for Research in Applied Science and Engineering Technology 9, nr 8 (31.08.2021): 2637–40. http://dx.doi.org/10.22214/ijraset.2021.37375.
Pełny tekst źródłaYu, Wentao, Steffen Zeiler i Dorothea Kolossa. "Reliability-Based Large-Vocabulary Audio-Visual Speech Recognition". Sensors 22, nr 15 (23.07.2022): 5501. http://dx.doi.org/10.3390/s22155501.
Pełny tekst źródłaWang, Junyi, Bingyao Li i Jiahong Zhang. "Use Brain-Like Audio Features to Improve Speech Recognition Performance". Journal of Sensors 2022 (19.09.2022): 1–12. http://dx.doi.org/10.1155/2022/6742474.
Pełny tekst źródłaSeong, Thum Wei, M. Z. Ibrahim i D. J. Mulvaney. "WADA-W: A Modified WADA SNR Estimator for Audio-Visual Speech Recognition". International Journal of Machine Learning and Computing 9, nr 4 (sierpień 2019): 446–51. http://dx.doi.org/10.18178/ijmlc.2019.9.4.824.
Pełny tekst źródłaEt. al., D. N. V. S. L. S. Indira,. "An Enhanced CNN-2D for Audio-Visual Emotion Recognition (AVER) Using ADAM Optimizer". Turkish Journal of Computer and Mathematics Education (TURCOMAT) 12, nr 5 (11.04.2021): 1378–88. http://dx.doi.org/10.17762/turcomat.v12i5.2030.
Pełny tekst źródłaTiwari, Rishin, Saloni Birthare i Mr Mayank Lovanshi. "Audio to Sign Language Converter". International Journal for Research in Applied Science and Engineering Technology 10, nr 11 (30.11.2022): 206–11. http://dx.doi.org/10.22214/ijraset.2022.47271.
Pełny tekst źródłaAxyonov, A. A., D. V. Ivanko, I. B. Lashkov, D. A. Ryumin, A. M. Kashevnik i A. A. Karpov. "A methodology of multimodal corpus creation for audio-visual speech recognition in assistive transport systems". Informatization and communication 5 (grudzień 2020): 87–93. http://dx.doi.org/10.34219/2078-8320-2020-11-5-87-93.
Pełny tekst źródłaIvanko, Denis, Dmitry Ryumin i Alexey Karpov. "A Review of Recent Advances on Deep Learning Methods for Audio-Visual Speech Recognition". Mathematics 11, nr 12 (12.06.2023): 2665. http://dx.doi.org/10.3390/math11122665.
Pełny tekst źródłaWu, Xuan, Silong Zhou, Mingwei Chen, Yihang Zhao, Yifei Wang, Xianmeng Zhao, Danyang Li i Haibo Pu. "Combined spectral and speech features for pig speech recognition". PLOS ONE 17, nr 12 (1.12.2022): e0276778. http://dx.doi.org/10.1371/journal.pone.0276778.
Pełny tekst źródłaReddy, P. Deepak. "Multilingual Speech to Text using Deep Learning based on MFCC Features". Machine Learning and Applications: An International Journal 9, nr 02 (30.06.2022): 21–30. http://dx.doi.org/10.5121/mlaij.2022.9202.
Pełny tekst źródłaAiman, Aisha, Yao Shen, Malika Bendechache, Irum Inayat i Teerath Kumar. "AUDD: Audio Urdu Digits Dataset for Automatic Audio Urdu Digit Recognition". Applied Sciences 11, nr 19 (23.09.2021): 8842. http://dx.doi.org/10.3390/app11198842.
Pełny tekst źródłaHASHIMOTO, Masahiro, i Masaharu KUMASHIRO. "Intermodal Timing Cues for Audio-Visual Speech Recognition". Journal of UOEH 26, nr 2 (2004): 215–25. http://dx.doi.org/10.7888/juoeh.26.215.
Pełny tekst źródła