Artykuły w czasopismach na temat „Sound events”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Sound events”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Elizalde, Benjamin. "Categorization of sound events for automatic sound event classification". Journal of the Acoustical Society of America 153, nr 3_supplement (1.03.2023): A364. http://dx.doi.org/10.1121/10.0019175.
Pełny tekst źródłaAura, Karine, Guillaume Lemaitre i Patrick Susini. "Verbal imitations of sound events enable recognition of the imitated sound events". Journal of the Acoustical Society of America 123, nr 5 (maj 2008): 3414. http://dx.doi.org/10.1121/1.2934144.
Pełny tekst źródłaNishida, Tsuruyo, Kazuhiko Kakehi i Takamasa Kyutoku. "Motion perception of the target sound event under the discriminated two sound events". Journal of the Acoustical Society of America 120, nr 5 (listopad 2006): 3080. http://dx.doi.org/10.1121/1.4787419.
Pełny tekst źródłaNakayama, Tsumugi, Taisuke Naito, Shunsuke Kouda i Takatoshi Yokota. "Determining disturbance sounds in aircraft sound events using a CNN-based method". INTER-NOISE and NOISE-CON Congress and Conference Proceedings 268, nr 7 (30.11.2023): 1320–28. http://dx.doi.org/10.3397/in_2023_0196.
Pełny tekst źródłaHara, Sunao, i Masanobu Abe. "Predictions for sound events and soundscape impressions from environmental sound using deep neural networks". INTER-NOISE and NOISE-CON Congress and Conference Proceedings 268, nr 3 (30.11.2023): 5239–50. http://dx.doi.org/10.3397/in_2023_0739.
Pełny tekst źródłaMaruyama, Hironori, Kosuke Okada i Isamu Motoyoshi. "A two-stage spectral model for sound texture perception: Synthesis and psychophysics". i-Perception 14, nr 1 (styczeń 2023): 204166952311573. http://dx.doi.org/10.1177/20416695231157349.
Pełny tekst źródłaDomazetovska, Simona, Viktor Gavriloski, Maja Anachkova i Zlatko Petreski. "URBAN SOUND RECOGNITION USING DIFFERENT FEATURE EXTRACTION TECHNIQUES". Facta Universitatis, Series: Automatic Control and Robotics 20, nr 3 (18.12.2021): 155. http://dx.doi.org/10.22190/fuacr211015012d.
Pełny tekst źródłaMartinek, Jozef, P. Klco, M. Vrabec, T. Zatko, M. Tatar i M. Javorka. "Cough Sound Analysis". Acta Medica Martiniana 13, Supplement-1 (1.03.2013): 15–20. http://dx.doi.org/10.2478/acm-2013-0002.
Pełny tekst źródłaHeck, Jonas, Josep Llorca-Bofí, Christian Dreier i Michael Vorlaender. "Validation of auralized impulse responses considering masking, loudness and background noise". Journal of the Acoustical Society of America 155, nr 3_Supplement (1.03.2024): A178. http://dx.doi.org/10.1121/10.0027231.
Pełny tekst źródłaKim, Yunbin, Jaewon Sa, Yongwha Chung, Daihee Park i Sungju Lee. "Resource-Efficient Pet Dog Sound Events Classification Using LSTM-FCN Based on Time-Series Data". Sensors 18, nr 11 (18.11.2018): 4019. http://dx.doi.org/10.3390/s18114019.
Pełny tekst źródłaREDFERN, NICK. "Sound in Horror Film Trailers". Music, Sound, and the Moving Image: Volume 14, Issue 1 14, nr 1 (1.07.2020): 47–71. http://dx.doi.org/10.3828/msmi.2020.4.
Pełny tekst źródłaMorris, Robert. "Aspects of Performance Practice in Morton Feldman's Last Pieces". MusMat: Brazilian Journal of Music and Mathematics IV, nr 2 (28.12.2020): 28–40. http://dx.doi.org/10.46926/musmat.2020v4n2.28-40.
Pełny tekst źródłaNwankwo, Mary, Qi Meng, Da Yang i Fangfang Liu. "Effects of Forest on Birdsong and Human Acoustic Perception in Urban Parks: A Case Study in Nigeria". Forests 13, nr 7 (24.06.2022): 994. http://dx.doi.org/10.3390/f13070994.
Pełny tekst źródłaKovalenko, Andriy, i Anton Poroshenko. "ANALYSIS OF THE SOUND EVENT DETECTION METHODS AND SYSTEMS". Advanced Information Systems 6, nr 1 (6.04.2022): 65–69. http://dx.doi.org/10.20998/2522-9052.2022.1.11.
Pełny tekst źródłaMcDermott, Joshua H., Vinayak Agarwal, Fernanda De La Torre i James Traer. "Understanding auditory intuitive physics". Journal of the Acoustical Society of America 153, nr 3_supplement (1.03.2023): A364. http://dx.doi.org/10.1121/10.0019174.
Pełny tekst źródłaSanal-Hayes, Nilihan E. M., Lawrence D. Hayes, Peter Walker, Jacqueline L. Mair i J. Gavin Bremner. "Adults Do Not Appropriately Consider Mass Cues of Object Brightness and Pitch Sound to Judge Outcomes of Collision Events". Applied Sciences 12, nr 17 (24.08.2022): 8463. http://dx.doi.org/10.3390/app12178463.
Pełny tekst źródłaMarcell, Michael, Maria Malatanos, Connie Leahy i Cadie Comeaux. "Identifying, rating, and remembering environmental sound events". Behavior Research Methods 39, nr 3 (sierpień 2007): 561–69. http://dx.doi.org/10.3758/bf03193026.
Pełny tekst źródłaGoricke, Rudolf. "Device for stereophonic recording of sound events". Journal of the Acoustical Society of America 93, nr 3 (marzec 1993): 1682. http://dx.doi.org/10.1121/1.406732.
Pełny tekst źródłaStanzial, Domenico, Giorgio Sacchi i Giuliano Schiffrer. "Active playback of acoustic quadraphonic sound events". Journal of the Acoustical Society of America 123, nr 5 (maj 2008): 3093. http://dx.doi.org/10.1121/1.2932933.
Pełny tekst źródłaNoesselt, Toemme, Daniel Bergmann, Maria Hake, Hans-Jochen Heinze i Robert Fendrich. "Sound increases the saliency of visual events". Brain Research 1220 (lipiec 2008): 157–63. http://dx.doi.org/10.1016/j.brainres.2007.12.060.
Pełny tekst źródłaGiladi, Ran. "Real-time identification of aircraft sound events". Transportation Research Part D: Transport and Environment 87 (październik 2020): 102527. http://dx.doi.org/10.1016/j.trd.2020.102527.
Pełny tekst źródłaLoughrin, John, Stacy Antle, Karamat Sistani i Nanh Lovanh. "In Situ Acoustic Treatment of Anaerobic Digesters to Improve Biogas Yields". Environments 7, nr 2 (8.02.2020): 11. http://dx.doi.org/10.3390/environments7020011.
Pełny tekst źródłaDunn, David, i René van Peer. "Music, Language and Environment". Leonardo Music Journal 9 (grudzień 1999): 63–67. http://dx.doi.org/10.1162/096112199750316820.
Pełny tekst źródłaThoen, Bart, Stijn Wielandt i Lieven De Strycker. "Improving AoA Localization Accuracy in Wireless Acoustic Sensor Networks with Angular Probability Density Functions". Sensors 19, nr 4 (21.02.2019): 900. http://dx.doi.org/10.3390/s19040900.
Pełny tekst źródłaJENSEN, KRISTOFFER. "Atomic noise". Organised Sound 10, nr 1 (kwiecień 2005): 75–81. http://dx.doi.org/10.1017/s1355771805000695.
Pełny tekst źródłaWANG, YA-LUN, CHIA-YU LIN, SHIH-PIN HUANG, CHIA-YUN LEE, MAO-NING TUANMU i TZI-YUAN WANG. "Chub movement is attracted by the collision sounds associated with spawning activities". Zootaxa 5189, nr 1 (23.09.2022): 308–17. http://dx.doi.org/10.11646/zootaxa.5189.1.27.
Pełny tekst źródłaKitazaki, Michiteru. "Human temporal coordination of visual and auditory events in virtual reality". Seeing and Perceiving 25 (2012): 31. http://dx.doi.org/10.1163/187847612x646532.
Pełny tekst źródłaHenriques, J. Tomás, Sofia Cavaco i Nuno Correia. "See-Through-Sound". Journal of Information Technology Research 7, nr 1 (styczeń 2014): 59–77. http://dx.doi.org/10.4018/jitr.2014010105.
Pełny tekst źródłaChemistruck, Mike, Andrew Allen, John Snyder i Nikunj Raghuvanshi. "Efficient acoustic perception for virtual AI agents". Proceedings of the ACM on Computer Graphics and Interactive Techniques 4, nr 3 (22.09.2021): 1–13. http://dx.doi.org/10.1145/3480139.
Pełny tekst źródłaBaliram Singh, Rajesh, Hanqi Zhuang i Jeet Kiran Pawani. "Data Collection, Modeling, and Classification for Gunshot and Gunshot-like Audio Events: A Case Study". Sensors 21, nr 21 (3.11.2021): 7320. http://dx.doi.org/10.3390/s21217320.
Pełny tekst źródłaSchneider, Sebastian, i Paul Wilhelm Dierkes. "Localize Animal Sound Events Reliably (LASER): A New Software for Sound Localization in Zoos". Journal of Zoological and Botanical Gardens 2, nr 2 (1.04.2021): 146–63. http://dx.doi.org/10.3390/jzbg2020011.
Pełny tekst źródłaNtalampiras, Stavros. "Audio Pattern Recognition of Baby Crying Sound Events". Journal of the Audio Engineering Society 63, nr 5 (22.05.2015): 358–69. http://dx.doi.org/10.17743/jaes.2015.0025.
Pełny tekst źródłaMorfi, Veronica, Robert F. Lachlan i Dan Stowell. "Deep perceptual embeddings for unlabelled animal sound events". Journal of the Acoustical Society of America 150, nr 1 (lipiec 2021): 2–11. http://dx.doi.org/10.1121/10.0005475.
Pełny tekst źródłaCastelvecchi, Davide. "Using sound to explore events of the Universe". Nature 597, nr 7874 (30.08.2021): 144. http://dx.doi.org/10.1038/d41586-021-02347-3.
Pełny tekst źródłaChen, Yi-Chuan, i Su-Ling Yeh. "Visual events modulated by sound in repetition blindness". Psychonomic Bulletin & Review 15, nr 2 (kwiecień 2008): 404–8. http://dx.doi.org/10.3758/pbr.15.2.404.
Pełny tekst źródłaLemaitre, Guillaume, Arnaud Dessein, Patrick Susini i Karine Aura. "Vocal Imitations and the Identification of Sound Events". Ecological Psychology 23, nr 4 (7.11.2011): 267–307. http://dx.doi.org/10.1080/10407413.2011.617225.
Pełny tekst źródłaOgg, Mattson, Thomas A. Carlson i L. Robert Slevc. "The Rapid Emergence of Auditory Object Representations in Cortex Reflect Central Acoustic Attributes". Journal of Cognitive Neuroscience 32, nr 1 (styczeń 2020): 111–23. http://dx.doi.org/10.1162/jocn_a_01472.
Pełny tekst źródłaFranzoni, Valentina, Giulio Biondi i Alfredo Milani. "Emotional sounds of crowds: spectrogram-based analysis using deep learning". Multimedia Tools and Applications 79, nr 47-48 (17.08.2020): 36063–75. http://dx.doi.org/10.1007/s11042-020-09428-x.
Pełny tekst źródłaGavrovska, Ana, Goran Zajić, Vesna Bogdanović, Irini Reljin i Branimir Reljin. "Identification of S1 and S2 Heart Sound Patterns Based on Fractal Theory and Shape Context". Complexity 2017 (2017): 1–9. http://dx.doi.org/10.1155/2017/1580414.
Pełny tekst źródłaCiaburro, Giuseppe. "Sound Event Detection in Underground Parking Garage Using Convolutional Neural Network". Big Data and Cognitive Computing 4, nr 3 (17.08.2020): 20. http://dx.doi.org/10.3390/bdcc4030020.
Pełny tekst źródłaLuzzi, Sergio, Chiara Bartalucci, Sara Delle Macchie, Rosella Natale i Paola Pulella. "THE INTERNATIONAL YEAR OF SOUND INITIATIVES FOR WORLDWIDE AWARENESS ABOUT THE IMPORTANCE OF SOUND". VOLUME 39, VOLUME 39 (2021): 135. http://dx.doi.org/10.36336/akustika202139135.
Pełny tekst źródłaMiyauchi, Ryota, Dea-Gee Kang, Yukio Iwaya i Yôiti Suzuki. "Relative Localization of Auditory and Visual Events Presented in Peripheral Visual Field". Multisensory Research 27, nr 1 (2014): 1–16. http://dx.doi.org/10.1163/22134808-00002442.
Pełny tekst źródłaBAILES, SARA JANE, ALEXANDRINA HEMSLEY, ROYONA MITRA, RAJNI SHAH, ARABELLA STANGER i JEREMY TOUSSAINT-BAPTISTE. "Unsettling Sound: Some Traces". Theatre Research International 46, nr 2 (lipiec 2021): 230–45. http://dx.doi.org/10.1017/s0307883321000134.
Pełny tekst źródłaHayashi, Shota, Meiyo Tamaoka, Tomoya Tateishi, Yuki Murota, Ibuki Handa i Yasunari Miyazaki. "A New Feature with the Potential to Detect the Severity of Obstructive Sleep Apnoea via Snoring Sound Analysis". International Journal of Environmental Research and Public Health 17, nr 8 (24.04.2020): 2951. http://dx.doi.org/10.3390/ijerph17082951.
Pełny tekst źródłaIttelson, William H. "The Perception of Nonmaterial Objects and Events". Leonardo 40, nr 3 (czerwiec 2007): 279–83. http://dx.doi.org/10.1162/leon.2007.40.3.279.
Pełny tekst źródłaKikuchi, Mumi, Tomonari Akamatsu, Daniel Gonzalez-Socoloske, Diogo A. de Souza, Leon D. Olivera-Gomez i Vera M. F. da Silva. "Detection of manatee feeding events by animal-borne underwater sound recorders". Journal of the Marine Biological Association of the United Kingdom 94, nr 6 (13.11.2013): 1139–46. http://dx.doi.org/10.1017/s0025315413001343.
Pełny tekst źródłaJadhav, Swapnil, Sarvesh Karpe i Siuli Das. "Sound Classification Using Python". ITM Web of Conferences 40 (2021): 03024. http://dx.doi.org/10.1051/itmconf/20214003024.
Pełny tekst źródłaWyerman, Barry, i Robert Unetich. "Pickleball Sound 101 - The Statistics of Pickleball Sound and a Recommended Noise Standard for Pickleball Play". INTER-NOISE and NOISE-CON Congress and Conference Proceedings 266, nr 2 (25.05.2023): 1–9. http://dx.doi.org/10.3397/nc_2023_0001.
Pełny tekst źródłaBarcelo Perez, Carlos, i Yamile Gonzalez Sanchez. "Non usual urban sounds in a western neighborhood of Havana city". MOJ Public Health 8, nr 4 (19.07.2019): 130–34. http://dx.doi.org/10.15406/mojph.2019.08.00297.
Pełny tekst źródłaShen Song, Shen Song, Cong Zhang Shen Song i Xinyuan You Cong Zhang. "Decoupling Temporal Convolutional Networks Model in Sound Event Detection and Localization". 網際網路技術學刊 24, nr 1 (styczeń 2023): 089–99. http://dx.doi.org/10.53106/160792642023012401009.
Pełny tekst źródła