Artykuły w czasopismach na temat „Computational auditory scene analysis”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Computational auditory scene analysis”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Brown, Guy J., i Martin Cooke. "Computational auditory scene analysis". Computer Speech & Language 8, nr 4 (październik 1994): 297–336. http://dx.doi.org/10.1006/csla.1994.1016.
Pełny tekst źródłaAlain, Claude, i Lori J. Bernstein. "Auditory Scene Analysis". Music Perception 33, nr 1 (1.09.2015): 70–82. http://dx.doi.org/10.1525/mp.2015.33.1.70.
Pełny tekst źródłaBrown, Guy J. "Computational auditory scene analysis: A representational approach". Journal of the Acoustical Society of America 94, nr 4 (październik 1993): 2454. http://dx.doi.org/10.1121/1.407441.
Pełny tekst źródłaLewicki, Michael S., Bruno A. Olshausen, Annemarie Surlykke i Cynthia F. Moss. "Computational issues in natural auditory scene analysis". Journal of the Acoustical Society of America 137, nr 4 (kwiecień 2015): 2249. http://dx.doi.org/10.1121/1.4920202.
Pełny tekst źródłaNiessen, Maria E., Ronald A. Van Elburg, Dirkjan J. Krijnders i Tjeerd C. Andringa. "A computational model for auditory scene analysis". Journal of the Acoustical Society of America 123, nr 5 (maj 2008): 3301. http://dx.doi.org/10.1121/1.2933719.
Pełny tekst źródłaNakadai, Kazuhiro, i Hiroshi G. Okuno. "Robot Audition and Computational Auditory Scene Analysis". Advanced Intelligent Systems 2, nr 9 (8.07.2020): 2000050. http://dx.doi.org/10.1002/aisy.202000050.
Pełny tekst źródłaGodsmark, Darryl, i Guy J. Brown. "A blackboard architecture for computational auditory scene analysis". Speech Communication 27, nr 3-4 (kwiecień 1999): 351–66. http://dx.doi.org/10.1016/s0167-6393(98)00082-x.
Pełny tekst źródłaKondo, Hirohito M., Anouk M. van Loon, Jun-Ichiro Kawahara i Brian C. J. Moore. "Auditory and visual scene analysis: an overview". Philosophical Transactions of the Royal Society B: Biological Sciences 372, nr 1714 (19.02.2017): 20160099. http://dx.doi.org/10.1098/rstb.2016.0099.
Pełny tekst źródłaCooke, M. P., i G. J. Brown. "Computational auditory scene analysis: Exploiting principles of perceived continuity". Speech Communication 13, nr 3-4 (grudzień 1993): 391–99. http://dx.doi.org/10.1016/0167-6393(93)90037-l.
Pełny tekst źródłaShao, Yang, i DeLiang Wang. "Sequential organization of speech in computational auditory scene analysis". Speech Communication 51, nr 8 (sierpień 2009): 657–67. http://dx.doi.org/10.1016/j.specom.2009.02.003.
Pełny tekst źródłaFodróczi, Zoltán, i András Radványi. "Computational auditory scene analysis in cellular wave computing framework". International Journal of Circuit Theory and Applications 34, nr 4 (2006): 489–515. http://dx.doi.org/10.1002/cta.362.
Pełny tekst źródłaBregman, Albert S. "Progress in Understanding Auditory Scene Analysis". Music Perception 33, nr 1 (1.09.2015): 12–19. http://dx.doi.org/10.1525/mp.2015.33.1.12.
Pełny tekst źródłaCrawford, Malcolm, Martin Cooke i Guy Brown. "Interactive computational auditory scene analysis: An environment for exploring auditory representations and groups". Journal of the Acoustical Society of America 93, nr 4 (kwiecień 1993): 2308. http://dx.doi.org/10.1121/1.406432.
Pełny tekst źródłaHongyan, Li, Cao Meng i Wang Yue. "Separation of Reverberant Speech Based on Computational Auditory Scene Analysis". Automatic Control and Computer Sciences 52, nr 6 (listopad 2018): 561–71. http://dx.doi.org/10.3103/s0146411618060068.
Pełny tekst źródłaKawamoto, Mitsuru. "Sound-Environment Monitoring Method Based on Computational Auditory Scene Analysis". Journal of Signal and Information Processing 08, nr 02 (2017): 65–77. http://dx.doi.org/10.4236/jsip.2017.82005.
Pełny tekst źródłaCooke, Martin, Guy J. Brown, Malcolm Crawford i Phil Green. "Computational auditory scene analysis: listening to several things at once". Endeavour 17, nr 4 (styczeń 1993): 186–90. http://dx.doi.org/10.1016/0160-9327(93)90061-7.
Pełny tekst źródłaDrake, Laura A., Janet C. Rutledge i Aggelos Katsaggelos. "Computational auditory scene analysis‐constrained array processing for sound source separation". Journal of the Acoustical Society of America 106, nr 4 (październik 1999): 2238. http://dx.doi.org/10.1121/1.427622.
Pełny tekst źródłaMcLACHLAN, NEIL, DINESH KANT KUMAR i JOHN BECKER. "WAVELET CLASSIFICATION OF INDOOR ENVIRONMENTAL SOUND SOURCES". International Journal of Wavelets, Multiresolution and Information Processing 04, nr 01 (marzec 2006): 81–96. http://dx.doi.org/10.1142/s0219691306001105.
Pełny tekst źródłaHaykin, Simon, i Zhe Chen. "The Cocktail Party Problem". Neural Computation 17, nr 9 (1.09.2005): 1875–902. http://dx.doi.org/10.1162/0899766054322964.
Pełny tekst źródłaKashino, Makio, Eisuke Adachi i Haruto Hirose. "A computational model for the dynamic aspects of primitive auditory scene analysis". Journal of the Acoustical Society of America 131, nr 4 (kwiecień 2012): 3230. http://dx.doi.org/10.1121/1.4708046.
Pełny tekst źródłaHu, Ying, i Guizhong Liu. "Singer identification based on computational auditory scene analysis and missing feature methods". Journal of Intelligent Information Systems 42, nr 3 (9.08.2013): 333–52. http://dx.doi.org/10.1007/s10844-013-0271-6.
Pełny tekst źródłaKaya, Emine Merve, i Mounya Elhilali. "Modelling auditory attention". Philosophical Transactions of the Royal Society B: Biological Sciences 372, nr 1714 (19.02.2017): 20160101. http://dx.doi.org/10.1098/rstb.2016.0101.
Pełny tekst źródłaBregman, Albert S. "Constraints on computational models of auditory scene analysis, as derived from human perception." Journal of the Acoustical Society of Japan (E) 16, nr 3 (1995): 133–36. http://dx.doi.org/10.1250/ast.16.133.
Pełny tekst źródłaShao, Yang, Soundararajan Srinivasan, Zhaozhang Jin i DeLiang Wang. "A computational auditory scene analysis system for speech segregation and robust speech recognition". Computer Speech & Language 24, nr 1 (styczeń 2010): 77–93. http://dx.doi.org/10.1016/j.csl.2008.03.004.
Pełny tekst źródłaCichy, Radoslaw Martin, i Santani Teng. "Resolving the neural dynamics of visual and auditory scene processing in the human brain: a methodological approach". Philosophical Transactions of the Royal Society B: Biological Sciences 372, nr 1714 (19.02.2017): 20160108. http://dx.doi.org/10.1098/rstb.2016.0108.
Pełny tekst źródłaZeremdini, Jihen, Mohamed Anouar Ben Messaoud i Aicha Bouzid. "A comparison of several computational auditory scene analysis (CASA) techniques for monaural speech segregation". Brain Informatics 2, nr 3 (4.08.2015): 155–66. http://dx.doi.org/10.1007/s40708-015-0016-0.
Pełny tekst źródłaHupé, Jean-Michel, i Daniel Pressnitzer. "The initial phase of auditory and visual scene analysis". Philosophical Transactions of the Royal Society B: Biological Sciences 367, nr 1591 (5.04.2012): 942–53. http://dx.doi.org/10.1098/rstb.2011.0368.
Pełny tekst źródłaDarwin, Chris. "Computational Auditory Scene Analysis: Principles, Algorithms and ApplicationsComputational Auditory Scene Analysis: Principles, Algorithms and ApplicationsDeLiangWangGuy J.BrownWiley-IEEE Press, Hoboken, N.J., 2006. xxiii+395 pp. $95.50 (hardcover), ISBN: 0471741094." Journal of the Acoustical Society of America 124, nr 1 (lipiec 2008): 13. http://dx.doi.org/10.1121/1.2920958.
Pełny tekst źródłaLi, P., Y. Guan, B. Xu i W. Liu. "Monaural Speech Separation Based on Computational Auditory Scene Analysis and Objective Quality Assessment of Speech". IEEE Transactions on Audio, Speech and Language Processing 14, nr 6 (listopad 2006): 2014–23. http://dx.doi.org/10.1109/tasl.2006.883258.
Pełny tekst źródłaPARK, J. H., J. S. YOON i H. K. KIM. "HMM-Based Mask Estimation for a Speech Recognition Front-End Using Computational Auditory Scene Analysis". IEICE Transactions on Information and Systems E91-D, nr 9 (1.09.2008): 2360–64. http://dx.doi.org/10.1093/ietisy/e91-d.9.2360.
Pełny tekst źródłaMcElveen, J. K., Leonid Krasny i Scott Nordlund. "Applying matched field array processing and machine learning to computational auditory scene analysis and source separation challenges". Journal of the Acoustical Society of America 151, nr 4 (kwiecień 2022): A232. http://dx.doi.org/10.1121/10.0011162.
Pełny tekst źródłaVeale, Richard, Ziad M. Hafed i Masatoshi Yoshida. "How is visual salience computed in the brain? Insights from behaviour, neurobiology and modelling". Philosophical Transactions of the Royal Society B: Biological Sciences 372, nr 1714 (19.02.2017): 20160113. http://dx.doi.org/10.1098/rstb.2016.0113.
Pełny tekst źródłaGregoire, Jerry. "Review and comparison of methods using spectral characteristics for the purposes of CASA, Computational Auditory Scene Analysis". Journal of the Acoustical Society of America 114, nr 4 (październik 2003): 2331. http://dx.doi.org/10.1121/1.4781037.
Pełny tekst źródłaRouat, J. "Computational Auditory Scene Analysis: Principles, Algorithms, and Applications (Wang, D. and Brown, G.J., Eds.; 2006) [Book review]". IEEE Transactions on Neural Networks 19, nr 1 (styczeń 2008): 199. http://dx.doi.org/10.1109/tnn.2007.913988.
Pełny tekst źródłaJiang, Yi, Yuan Yuan Zu i Ying Ze Wang. "An Unsupervised Approach to Close-Talk Speech Enhancement". Applied Mechanics and Materials 614 (wrzesień 2014): 363–66. http://dx.doi.org/10.4028/www.scientific.net/amm.614.363.
Pełny tekst źródłaZhou, Hong, Yi Jiang, Ming Jiang i Qiang Chen. "Energy Difference Based Speech Segregation for Close-Talk System". Applied Mechanics and Materials 229-231 (listopad 2012): 1738–41. http://dx.doi.org/10.4028/www.scientific.net/amm.229-231.1738.
Pełny tekst źródłaOtsuka, Takuma, Katsuhiko Ishiguro, Hiroshi Sawada i Hiroshi Okuno. "Bayesian Unification of Sound Source Localization and Separation with Permutation Resolution". Proceedings of the AAAI Conference on Artificial Intelligence 26, nr 1 (20.09.2021): 2038–45. http://dx.doi.org/10.1609/aaai.v26i1.8376.
Pełny tekst źródłaEllis, Daniel P. W. "Using knowledge to organize sound: The prediction-driven approach to computational auditory scene analysis and its application to speech/nonspeech mixtures". Speech Communication 27, nr 3-4 (kwiecień 1999): 281–98. http://dx.doi.org/10.1016/s0167-6393(98)00083-1.
Pełny tekst źródłaLi, Hongyan, Yue Wang, Rongrong Zhao i Xueying Zhang. "An Unsupervised Two-Talker Speech Separation System Based on CASA". International Journal of Pattern Recognition and Artificial Intelligence 32, nr 07 (14.03.2018): 1858002. http://dx.doi.org/10.1142/s0218001418580028.
Pełny tekst źródłaAbe, Mototsugu, i Shigeru Ando. "Auditory scene analysis based on time-frequency integration of shared FM and AM (I): Lagrange differential features and frequency-axis integration". Systems and Computers in Japan 33, nr 11 (5.08.2002): 95–106. http://dx.doi.org/10.1002/scj.1167.
Pełny tekst źródłaAbe, Mototsugu, i Shigeru Ando. "Auditory scene analysis based on time-frequency integration of shared FM and AM (II): Optimum time-domain integration and stream sound reconstruction". Systems and Computers in Japan 33, nr 10 (2.07.2002): 83–94. http://dx.doi.org/10.1002/scj.1160.
Pełny tekst źródłaHe, Yuebo, Hui Gao, Hai Liu i Guoxi Jing. "Identification of prominent noise components of an electric powertrain using a psychoacoustic model". Noise Control Engineering Journal 70, nr 2 (1.03.2022): 103–14. http://dx.doi.org/10.3397/1/37709.
Pełny tekst źródłaHe, Zhuang, i Yin Feng. "Singing Transcription from Polyphonic Music Using Melody Contour Filtering". Applied Sciences 11, nr 13 (25.06.2021): 5913. http://dx.doi.org/10.3390/app11135913.
Pełny tekst źródłaJohnson, Keith. "Auditory Scene Analysis". Journal of Phonetics 21, nr 4 (październik 1993): 491–96. http://dx.doi.org/10.1016/s0095-4470(19)30232-3.
Pełny tekst źródłaFAY, RICHARD R. "AUDITORY SCENE ANALYSIS". Bioacoustics 17, nr 1-3 (styczeń 2008): 106–9. http://dx.doi.org/10.1080/09524622.2008.9753783.
Pełny tekst źródłaSutter, Mitchell L., Christopher Petkov, Kathleen Baynes i Kevin N. OʼConnor. "Auditory scene analysis in dyslexics". NeuroReport 11, nr 9 (czerwiec 2000): 1967–71. http://dx.doi.org/10.1097/00001756-200006260-00032.
Pełny tekst źródłaFay, Richard. "Auditory scene analysis in fish." Journal of the Acoustical Society of America 126, nr 4 (2009): 2290. http://dx.doi.org/10.1121/1.3249386.
Pełny tekst źródłaBregman, Albert S. "Auditory scene analysis: Theory and phenomena". Journal of the Acoustical Society of America 93, nr 4 (kwiecień 1993): 2306. http://dx.doi.org/10.1121/1.406452.
Pełny tekst źródłaSussman, Elyse. "Auditory Scene Analysis: An Attention Perspective". Clinical Research Education Library 1, nr 1 (2016): 1. http://dx.doi.org/10.1044/cred-pvd-c16002.
Pełny tekst źródłaSussman, Elyse S. "Auditory Scene Analysis: An Attention Perspective". Journal of Speech, Language, and Hearing Research 60, nr 10 (17.10.2017): 2989–3000. http://dx.doi.org/10.1044/2017_jslhr-h-17-0041.
Pełny tekst źródła