Zeitschriftenartikel zum Thema „Sound events“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Sound events" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Elizalde, Benjamin. „Categorization of sound events for automatic sound event classification“. Journal of the Acoustical Society of America 153, Nr. 3_supplement (01.03.2023): A364. http://dx.doi.org/10.1121/10.0019175.
Der volle Inhalt der QuelleAura, Karine, Guillaume Lemaitre und Patrick Susini. „Verbal imitations of sound events enable recognition of the imitated sound events“. Journal of the Acoustical Society of America 123, Nr. 5 (Mai 2008): 3414. http://dx.doi.org/10.1121/1.2934144.
Der volle Inhalt der QuelleNishida, Tsuruyo, Kazuhiko Kakehi und Takamasa Kyutoku. „Motion perception of the target sound event under the discriminated two sound events“. Journal of the Acoustical Society of America 120, Nr. 5 (November 2006): 3080. http://dx.doi.org/10.1121/1.4787419.
Der volle Inhalt der QuelleNakayama, Tsumugi, Taisuke Naito, Shunsuke Kouda und Takatoshi Yokota. „Determining disturbance sounds in aircraft sound events using a CNN-based method“. INTER-NOISE and NOISE-CON Congress and Conference Proceedings 268, Nr. 7 (30.11.2023): 1320–28. http://dx.doi.org/10.3397/in_2023_0196.
Der volle Inhalt der QuelleHara, Sunao, und Masanobu Abe. „Predictions for sound events and soundscape impressions from environmental sound using deep neural networks“. INTER-NOISE and NOISE-CON Congress and Conference Proceedings 268, Nr. 3 (30.11.2023): 5239–50. http://dx.doi.org/10.3397/in_2023_0739.
Der volle Inhalt der QuelleMaruyama, Hironori, Kosuke Okada und Isamu Motoyoshi. „A two-stage spectral model for sound texture perception: Synthesis and psychophysics“. i-Perception 14, Nr. 1 (Januar 2023): 204166952311573. http://dx.doi.org/10.1177/20416695231157349.
Der volle Inhalt der QuelleDomazetovska, Simona, Viktor Gavriloski, Maja Anachkova und Zlatko Petreski. „URBAN SOUND RECOGNITION USING DIFFERENT FEATURE EXTRACTION TECHNIQUES“. Facta Universitatis, Series: Automatic Control and Robotics 20, Nr. 3 (18.12.2021): 155. http://dx.doi.org/10.22190/fuacr211015012d.
Der volle Inhalt der QuelleMartinek, Jozef, P. Klco, M. Vrabec, T. Zatko, M. Tatar und M. Javorka. „Cough Sound Analysis“. Acta Medica Martiniana 13, Supplement-1 (01.03.2013): 15–20. http://dx.doi.org/10.2478/acm-2013-0002.
Der volle Inhalt der QuelleHeck, Jonas, Josep Llorca-Bofí, Christian Dreier und Michael Vorlaender. „Validation of auralized impulse responses considering masking, loudness and background noise“. Journal of the Acoustical Society of America 155, Nr. 3_Supplement (01.03.2024): A178. http://dx.doi.org/10.1121/10.0027231.
Der volle Inhalt der QuelleKim, Yunbin, Jaewon Sa, Yongwha Chung, Daihee Park und Sungju Lee. „Resource-Efficient Pet Dog Sound Events Classification Using LSTM-FCN Based on Time-Series Data“. Sensors 18, Nr. 11 (18.11.2018): 4019. http://dx.doi.org/10.3390/s18114019.
Der volle Inhalt der QuelleREDFERN, NICK. „Sound in Horror Film Trailers“. Music, Sound, and the Moving Image: Volume 14, Issue 1 14, Nr. 1 (01.07.2020): 47–71. http://dx.doi.org/10.3828/msmi.2020.4.
Der volle Inhalt der QuelleMorris, Robert. „Aspects of Performance Practice in Morton Feldman's Last Pieces“. MusMat: Brazilian Journal of Music and Mathematics IV, Nr. 2 (28.12.2020): 28–40. http://dx.doi.org/10.46926/musmat.2020v4n2.28-40.
Der volle Inhalt der QuelleNwankwo, Mary, Qi Meng, Da Yang und Fangfang Liu. „Effects of Forest on Birdsong and Human Acoustic Perception in Urban Parks: A Case Study in Nigeria“. Forests 13, Nr. 7 (24.06.2022): 994. http://dx.doi.org/10.3390/f13070994.
Der volle Inhalt der QuelleKovalenko, Andriy, und Anton Poroshenko. „ANALYSIS OF THE SOUND EVENT DETECTION METHODS AND SYSTEMS“. Advanced Information Systems 6, Nr. 1 (06.04.2022): 65–69. http://dx.doi.org/10.20998/2522-9052.2022.1.11.
Der volle Inhalt der QuelleMcDermott, Joshua H., Vinayak Agarwal, Fernanda De La Torre und James Traer. „Understanding auditory intuitive physics“. Journal of the Acoustical Society of America 153, Nr. 3_supplement (01.03.2023): A364. http://dx.doi.org/10.1121/10.0019174.
Der volle Inhalt der QuelleSanal-Hayes, Nilihan E. M., Lawrence D. Hayes, Peter Walker, Jacqueline L. Mair und J. Gavin Bremner. „Adults Do Not Appropriately Consider Mass Cues of Object Brightness and Pitch Sound to Judge Outcomes of Collision Events“. Applied Sciences 12, Nr. 17 (24.08.2022): 8463. http://dx.doi.org/10.3390/app12178463.
Der volle Inhalt der QuelleMarcell, Michael, Maria Malatanos, Connie Leahy und Cadie Comeaux. „Identifying, rating, and remembering environmental sound events“. Behavior Research Methods 39, Nr. 3 (August 2007): 561–69. http://dx.doi.org/10.3758/bf03193026.
Der volle Inhalt der QuelleGoricke, Rudolf. „Device for stereophonic recording of sound events“. Journal of the Acoustical Society of America 93, Nr. 3 (März 1993): 1682. http://dx.doi.org/10.1121/1.406732.
Der volle Inhalt der QuelleStanzial, Domenico, Giorgio Sacchi und Giuliano Schiffrer. „Active playback of acoustic quadraphonic sound events“. Journal of the Acoustical Society of America 123, Nr. 5 (Mai 2008): 3093. http://dx.doi.org/10.1121/1.2932933.
Der volle Inhalt der QuelleNoesselt, Toemme, Daniel Bergmann, Maria Hake, Hans-Jochen Heinze und Robert Fendrich. „Sound increases the saliency of visual events“. Brain Research 1220 (Juli 2008): 157–63. http://dx.doi.org/10.1016/j.brainres.2007.12.060.
Der volle Inhalt der QuelleGiladi, Ran. „Real-time identification of aircraft sound events“. Transportation Research Part D: Transport and Environment 87 (Oktober 2020): 102527. http://dx.doi.org/10.1016/j.trd.2020.102527.
Der volle Inhalt der QuelleLoughrin, John, Stacy Antle, Karamat Sistani und Nanh Lovanh. „In Situ Acoustic Treatment of Anaerobic Digesters to Improve Biogas Yields“. Environments 7, Nr. 2 (08.02.2020): 11. http://dx.doi.org/10.3390/environments7020011.
Der volle Inhalt der QuelleDunn, David, und René van Peer. „Music, Language and Environment“. Leonardo Music Journal 9 (Dezember 1999): 63–67. http://dx.doi.org/10.1162/096112199750316820.
Der volle Inhalt der QuelleThoen, Bart, Stijn Wielandt und Lieven De Strycker. „Improving AoA Localization Accuracy in Wireless Acoustic Sensor Networks with Angular Probability Density Functions“. Sensors 19, Nr. 4 (21.02.2019): 900. http://dx.doi.org/10.3390/s19040900.
Der volle Inhalt der QuelleJENSEN, KRISTOFFER. „Atomic noise“. Organised Sound 10, Nr. 1 (April 2005): 75–81. http://dx.doi.org/10.1017/s1355771805000695.
Der volle Inhalt der QuelleWANG, YA-LUN, CHIA-YU LIN, SHIH-PIN HUANG, CHIA-YUN LEE, MAO-NING TUANMU und TZI-YUAN WANG. „Chub movement is attracted by the collision sounds associated with spawning activities“. Zootaxa 5189, Nr. 1 (23.09.2022): 308–17. http://dx.doi.org/10.11646/zootaxa.5189.1.27.
Der volle Inhalt der QuelleKitazaki, Michiteru. „Human temporal coordination of visual and auditory events in virtual reality“. Seeing and Perceiving 25 (2012): 31. http://dx.doi.org/10.1163/187847612x646532.
Der volle Inhalt der QuelleHenriques, J. Tomás, Sofia Cavaco und Nuno Correia. „See-Through-Sound“. Journal of Information Technology Research 7, Nr. 1 (Januar 2014): 59–77. http://dx.doi.org/10.4018/jitr.2014010105.
Der volle Inhalt der QuelleChemistruck, Mike, Andrew Allen, John Snyder und Nikunj Raghuvanshi. „Efficient acoustic perception for virtual AI agents“. Proceedings of the ACM on Computer Graphics and Interactive Techniques 4, Nr. 3 (22.09.2021): 1–13. http://dx.doi.org/10.1145/3480139.
Der volle Inhalt der QuelleBaliram Singh, Rajesh, Hanqi Zhuang und Jeet Kiran Pawani. „Data Collection, Modeling, and Classification for Gunshot and Gunshot-like Audio Events: A Case Study“. Sensors 21, Nr. 21 (03.11.2021): 7320. http://dx.doi.org/10.3390/s21217320.
Der volle Inhalt der QuelleSchneider, Sebastian, und Paul Wilhelm Dierkes. „Localize Animal Sound Events Reliably (LASER): A New Software for Sound Localization in Zoos“. Journal of Zoological and Botanical Gardens 2, Nr. 2 (01.04.2021): 146–63. http://dx.doi.org/10.3390/jzbg2020011.
Der volle Inhalt der QuelleNtalampiras, Stavros. „Audio Pattern Recognition of Baby Crying Sound Events“. Journal of the Audio Engineering Society 63, Nr. 5 (22.05.2015): 358–69. http://dx.doi.org/10.17743/jaes.2015.0025.
Der volle Inhalt der QuelleMorfi, Veronica, Robert F. Lachlan und Dan Stowell. „Deep perceptual embeddings for unlabelled animal sound events“. Journal of the Acoustical Society of America 150, Nr. 1 (Juli 2021): 2–11. http://dx.doi.org/10.1121/10.0005475.
Der volle Inhalt der QuelleCastelvecchi, Davide. „Using sound to explore events of the Universe“. Nature 597, Nr. 7874 (30.08.2021): 144. http://dx.doi.org/10.1038/d41586-021-02347-3.
Der volle Inhalt der QuelleChen, Yi-Chuan, und Su-Ling Yeh. „Visual events modulated by sound in repetition blindness“. Psychonomic Bulletin & Review 15, Nr. 2 (April 2008): 404–8. http://dx.doi.org/10.3758/pbr.15.2.404.
Der volle Inhalt der QuelleLemaitre, Guillaume, Arnaud Dessein, Patrick Susini und Karine Aura. „Vocal Imitations and the Identification of Sound Events“. Ecological Psychology 23, Nr. 4 (07.11.2011): 267–307. http://dx.doi.org/10.1080/10407413.2011.617225.
Der volle Inhalt der QuelleOgg, Mattson, Thomas A. Carlson und L. Robert Slevc. „The Rapid Emergence of Auditory Object Representations in Cortex Reflect Central Acoustic Attributes“. Journal of Cognitive Neuroscience 32, Nr. 1 (Januar 2020): 111–23. http://dx.doi.org/10.1162/jocn_a_01472.
Der volle Inhalt der QuelleFranzoni, Valentina, Giulio Biondi und Alfredo Milani. „Emotional sounds of crowds: spectrogram-based analysis using deep learning“. Multimedia Tools and Applications 79, Nr. 47-48 (17.08.2020): 36063–75. http://dx.doi.org/10.1007/s11042-020-09428-x.
Der volle Inhalt der QuelleGavrovska, Ana, Goran Zajić, Vesna Bogdanović, Irini Reljin und Branimir Reljin. „Identification of S1 and S2 Heart Sound Patterns Based on Fractal Theory and Shape Context“. Complexity 2017 (2017): 1–9. http://dx.doi.org/10.1155/2017/1580414.
Der volle Inhalt der QuelleCiaburro, Giuseppe. „Sound Event Detection in Underground Parking Garage Using Convolutional Neural Network“. Big Data and Cognitive Computing 4, Nr. 3 (17.08.2020): 20. http://dx.doi.org/10.3390/bdcc4030020.
Der volle Inhalt der QuelleLuzzi, Sergio, Chiara Bartalucci, Sara Delle Macchie, Rosella Natale und Paola Pulella. „THE INTERNATIONAL YEAR OF SOUND INITIATIVES FOR WORLDWIDE AWARENESS ABOUT THE IMPORTANCE OF SOUND“. VOLUME 39, VOLUME 39 (2021): 135. http://dx.doi.org/10.36336/akustika202139135.
Der volle Inhalt der QuelleMiyauchi, Ryota, Dea-Gee Kang, Yukio Iwaya und Yôiti Suzuki. „Relative Localization of Auditory and Visual Events Presented in Peripheral Visual Field“. Multisensory Research 27, Nr. 1 (2014): 1–16. http://dx.doi.org/10.1163/22134808-00002442.
Der volle Inhalt der QuelleBAILES, SARA JANE, ALEXANDRINA HEMSLEY, ROYONA MITRA, RAJNI SHAH, ARABELLA STANGER und JEREMY TOUSSAINT-BAPTISTE. „Unsettling Sound: Some Traces“. Theatre Research International 46, Nr. 2 (Juli 2021): 230–45. http://dx.doi.org/10.1017/s0307883321000134.
Der volle Inhalt der QuelleHayashi, Shota, Meiyo Tamaoka, Tomoya Tateishi, Yuki Murota, Ibuki Handa und Yasunari Miyazaki. „A New Feature with the Potential to Detect the Severity of Obstructive Sleep Apnoea via Snoring Sound Analysis“. International Journal of Environmental Research and Public Health 17, Nr. 8 (24.04.2020): 2951. http://dx.doi.org/10.3390/ijerph17082951.
Der volle Inhalt der QuelleIttelson, William H. „The Perception of Nonmaterial Objects and Events“. Leonardo 40, Nr. 3 (Juni 2007): 279–83. http://dx.doi.org/10.1162/leon.2007.40.3.279.
Der volle Inhalt der QuelleKikuchi, Mumi, Tomonari Akamatsu, Daniel Gonzalez-Socoloske, Diogo A. de Souza, Leon D. Olivera-Gomez und Vera M. F. da Silva. „Detection of manatee feeding events by animal-borne underwater sound recorders“. Journal of the Marine Biological Association of the United Kingdom 94, Nr. 6 (13.11.2013): 1139–46. http://dx.doi.org/10.1017/s0025315413001343.
Der volle Inhalt der QuelleJadhav, Swapnil, Sarvesh Karpe und Siuli Das. „Sound Classification Using Python“. ITM Web of Conferences 40 (2021): 03024. http://dx.doi.org/10.1051/itmconf/20214003024.
Der volle Inhalt der QuelleWyerman, Barry, und Robert Unetich. „Pickleball Sound 101 - The Statistics of Pickleball Sound and a Recommended Noise Standard for Pickleball Play“. INTER-NOISE and NOISE-CON Congress and Conference Proceedings 266, Nr. 2 (25.05.2023): 1–9. http://dx.doi.org/10.3397/nc_2023_0001.
Der volle Inhalt der QuelleBarcelo Perez, Carlos, und Yamile Gonzalez Sanchez. „Non usual urban sounds in a western neighborhood of Havana city“. MOJ Public Health 8, Nr. 4 (19.07.2019): 130–34. http://dx.doi.org/10.15406/mojph.2019.08.00297.
Der volle Inhalt der QuelleShen Song, Shen Song, Cong Zhang Shen Song und Xinyuan You Cong Zhang. „Decoupling Temporal Convolutional Networks Model in Sound Event Detection and Localization“. 網際網路技術學刊 24, Nr. 1 (Januar 2023): 089–99. http://dx.doi.org/10.53106/160792642023012401009.
Der volle Inhalt der Quelle