Artykuły w czasopismach na temat „Visual speech information”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Visual speech information”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Miller, Rachel M., Kauyumari Sanchez i Lawrence D. Rosenblum. "Alignment to visual speech information". Attention, Perception, & Psychophysics 72, nr 6 (sierpień 2010): 1614–25. http://dx.doi.org/10.3758/app.72.6.1614.
Pełny tekst źródłaRosenblum, Lawrence D., Deborah A. Yakel, Naser Baseer, Anjani Panchal, Brynn C. Nodarse i Ryan P. Niehus. "Visual speech information for face recognition". Perception & Psychophysics 64, nr 2 (luty 2002): 220–29. http://dx.doi.org/10.3758/bf03195788.
Pełny tekst źródłaYakel, Deborah A., i Lawrence D. Rosenblum. "Face identification using visual speech information". Journal of the Acoustical Society of America 100, nr 4 (październik 1996): 2570. http://dx.doi.org/10.1121/1.417401.
Pełny tekst źródłaWeinholtz, Chase, i James W. Dias. "Categorical perception of visual speech information". Journal of the Acoustical Society of America 139, nr 4 (kwiecień 2016): 2018. http://dx.doi.org/10.1121/1.4949950.
Pełny tekst źródłaHISANAGA, Satoko, Kaoru SEKIYAMA, Tomohiko IGASAKI i Nobuki MURAYAMA. "Effects of visual information on audio-visual speech processing". Proceedings of the Annual Convention of the Japanese Psychological Association 75 (15.09.2011): 2AM061. http://dx.doi.org/10.4992/pacjpa.75.0_2am061.
Pełny tekst źródłaSell, Andrea J., i Michael P. Kaschak. "Does visual speech information affect word segmentation?" Memory & Cognition 37, nr 6 (wrzesień 2009): 889–94. http://dx.doi.org/10.3758/mc.37.6.889.
Pełny tekst źródłaHall, Michael D., Paula M. T. Smeele i Patricia K. Kuhl. "Integration of auditory and visual speech information". Journal of the Acoustical Society of America 103, nr 5 (maj 1998): 2985. http://dx.doi.org/10.1121/1.421677.
Pełny tekst źródłaMcGiverin, Rolland. "Speech, Hearing and Visual". Behavioral & Social Sciences Librarian 8, nr 3-4 (16.04.1990): 73–78. http://dx.doi.org/10.1300/j103v08n03_12.
Pełny tekst źródłaHollich, George J., Peter W. Jusczyk i Rochelle S. Newman. "Infants use of visual information in speech segmentation". Journal of the Acoustical Society of America 110, nr 5 (listopad 2001): 2703. http://dx.doi.org/10.1121/1.4777318.
Pełny tekst źródłaTekin, Ender, James Coughlan i Helen Simon. "Improving speech enhancement algorithms by incorporating visual information". Journal of the Acoustical Society of America 134, nr 5 (listopad 2013): 4237. http://dx.doi.org/10.1121/1.4831575.
Pełny tekst źródłaUjiie, Yuta, i Kohske Takahashi. "Weaker McGurk Effect for Rubin’s Vase-Type Speech in People With High Autistic Traits". Multisensory Research 34, nr 6 (16.04.2021): 663–79. http://dx.doi.org/10.1163/22134808-bja10047.
Pełny tekst źródłaReed, Rebecca K., i Edward T. Auer. "Influence of visual speech information on the identification of foreign accented speech." Journal of the Acoustical Society of America 125, nr 4 (kwiecień 2009): 2660. http://dx.doi.org/10.1121/1.4784199.
Pełny tekst źródłaKim, Jeesun, i Chris Davis. "How visual timing and form information affect speech and non-speech processing". Brain and Language 137 (październik 2014): 86–90. http://dx.doi.org/10.1016/j.bandl.2014.07.012.
Pełny tekst źródłaSams, M. "Audiovisual Speech Perception". Perception 26, nr 1_suppl (sierpień 1997): 347. http://dx.doi.org/10.1068/v970029.
Pełny tekst źródłaPlass, John, David Brang, Satoru Suzuki i Marcia Grabowecky. "Vision perceptually restores auditory spectral dynamics in speech". Proceedings of the National Academy of Sciences 117, nr 29 (6.07.2020): 16920–27. http://dx.doi.org/10.1073/pnas.2002887117.
Pełny tekst źródłaKarpov, Alexey Anatolyevich. "Assistive Information Technologies based on Audio-Visual Speech Interfaces". SPIIRAS Proceedings 4, nr 27 (17.03.2014): 114. http://dx.doi.org/10.15622/sp.27.10.
Pełny tekst źródłaWhalen, D. H., Julia Irwin i Carol A. Fowler. "Audiovisual integration of speech based on minimal visual information". Journal of the Acoustical Society of America 100, nr 4 (październik 1996): 2569. http://dx.doi.org/10.1121/1.417395.
Pełny tekst źródłaGurban, M., i J. P. Thiran. "Information Theoretic Feature Extraction for Audio-Visual Speech Recognition". IEEE Transactions on Signal Processing 57, nr 12 (grudzień 2009): 4765–76. http://dx.doi.org/10.1109/tsp.2009.2026513.
Pełny tekst źródłaMishra, Sushmit, Thomas Lunner, Stefan Stenfelt, Jerker Rönnberg i Mary Rudner. "Visual Information Can Hinder Working Memory Processing of Speech". Journal of Speech, Language, and Hearing Research 56, nr 4 (sierpień 2013): 1120–32. http://dx.doi.org/10.1044/1092-4388(2012/12-0033).
Pełny tekst źródłaBorrie, Stephanie A. "Visual speech information: A help or hindrance in perceptual processing of dysarthric speech". Journal of the Acoustical Society of America 137, nr 3 (marzec 2015): 1473–80. http://dx.doi.org/10.1121/1.4913770.
Pełny tekst źródłaWayne, Rachel V., i Ingrid S. Johnsrude. "The role of visual speech information in supporting perceptual learning of degraded speech." Journal of Experimental Psychology: Applied 18, nr 4 (2012): 419–35. http://dx.doi.org/10.1037/a0031042.
Pełny tekst źródłaWinneke, Axel H., i Natalie A. Phillips. "Brain processes underlying the integration of audio-visual speech and non-speech information". Brain and Cognition 67 (czerwiec 2008): 45. http://dx.doi.org/10.1016/j.bandc.2008.02.096.
Pełny tekst źródłaSánchez-García, Carolina, Sonia Kandel, Christophe Savariaux, Nara Ikumi i Salvador Soto-Faraco. "Time course of audio–visual phoneme identification: A cross-modal gating study". Seeing and Perceiving 25 (2012): 194. http://dx.doi.org/10.1163/187847612x648233.
Pełny tekst źródłaYordamlı, Arzu, i Doğu Erdener. "Auditory–Visual Speech Integration in Bipolar Disorder: A Preliminary Study". Languages 3, nr 4 (17.10.2018): 38. http://dx.doi.org/10.3390/languages3040038.
Pełny tekst źródłaDrijvers, Linda, i Asli Özyürek. "Visual Context Enhanced: The Joint Contribution of Iconic Gestures and Visible Speech to Degraded Speech Comprehension". Journal of Speech, Language, and Hearing Research 60, nr 1 (styczeń 2017): 212–22. http://dx.doi.org/10.1044/2016_jslhr-h-16-0101.
Pełny tekst źródłaRosenblum, Lawrence D. "Speech Perception as a Multimodal Phenomenon". Current Directions in Psychological Science 17, nr 6 (grudzień 2008): 405–9. http://dx.doi.org/10.1111/j.1467-8721.2008.00615.x.
Pełny tekst źródłaMishra, Saumya, Anup Kumar Gupta i Puneet Gupta. "DARE: Deceiving Audio–Visual speech Recognition model". Knowledge-Based Systems 232 (listopad 2021): 107503. http://dx.doi.org/10.1016/j.knosys.2021.107503.
Pełny tekst źródłaCallan, Daniel E., Jeffery A. Jones, Kevin Munhall, Christian Kroos, Akiko M. Callan i Eric Vatikiotis-Bateson. "Multisensory Integration Sites Identified by Perception of Spatial Wavelet Filtered Visual Speech Gesture Information". Journal of Cognitive Neuroscience 16, nr 5 (czerwiec 2004): 805–16. http://dx.doi.org/10.1162/089892904970771.
Pełny tekst źródłaHertrich, Ingo, Susanne Dietrich i Hermann Ackermann. "Cross-modal Interactions during Perception of Audiovisual Speech and Nonspeech Signals: An fMRI Study". Journal of Cognitive Neuroscience 23, nr 1 (styczeń 2011): 221–37. http://dx.doi.org/10.1162/jocn.2010.21421.
Pełny tekst źródłaEverdell, Ian T., Heidi Marsh, Micheal D. Yurick, Kevin G. Munhall i Martin Paré. "Gaze Behaviour in Audiovisual Speech Perception: Asymmetrical Distribution of Face-Directed Fixations". Perception 36, nr 10 (październik 2007): 1535–45. http://dx.doi.org/10.1068/p5852.
Pełny tekst źródłaJesse, Alexandra, Nick Vrignaud, Michael M. Cohen i Dominic W. Massaro. "The processing of information from multiple sources in simultaneous interpreting". Interpreting. International Journal of Research and Practice in Interpreting 5, nr 2 (31.12.2000): 95–115. http://dx.doi.org/10.1075/intp.5.2.04jes.
Pełny tekst źródłaJia, Xi Bin, i Mei Xia Zheng. "Video Based Visual Speech Feature Model Construction". Applied Mechanics and Materials 182-183 (czerwiec 2012): 1367–71. http://dx.doi.org/10.4028/www.scientific.net/amm.182-183.1367.
Pełny tekst źródłaShi, Li Juan, Ping Feng, Jian Zhao, Li Rong Wang i Na Che. "Study on Dual Mode Fusion Method of Video and Audio". Applied Mechanics and Materials 734 (luty 2015): 412–15. http://dx.doi.org/10.4028/www.scientific.net/amm.734.412.
Pełny tekst źródłaDias, James W., i Lawrence D. Rosenblum. "Visual Influences on Interactive Speech Alignment". Perception 40, nr 12 (1.01.2011): 1457–66. http://dx.doi.org/10.1068/p7071.
Pełny tekst źródłaCampbell, Ruth. "The processing of audio-visual speech: empirical and neural bases". Philosophical Transactions of the Royal Society B: Biological Sciences 363, nr 1493 (7.09.2007): 1001–10. http://dx.doi.org/10.1098/rstb.2007.2155.
Pełny tekst źródłaMetzger, Brian A. ,., John F. ,. Magnotti, Elizabeth Nesbitt, Daniel Yoshor i Michael S. ,. Beauchamp. "Cross-modal suppression model of speech perception: Visual information drives suppressive interactions between visual and auditory speech in pSTG". Journal of Vision 20, nr 11 (20.10.2020): 434. http://dx.doi.org/10.1167/jov.20.11.434.
Pełny tekst źródłaIrwin, Julia, Trey Avery, Lawrence Brancazio, Jacqueline Turcios, Kayleigh Ryherd i Nicole Landi. "Electrophysiological Indices of Audiovisual Speech Perception: Beyond the McGurk Effect and Speech in Noise". Multisensory Research 31, nr 1-2 (2018): 39–56. http://dx.doi.org/10.1163/22134808-00002580.
Pełny tekst źródłaVan Engen, Kristin J., Jasmine E. B. Phelps, Rajka Smiljanic i Bharath Chandrasekaran. "Enhancing Speech Intelligibility: Interactions Among Context, Modality, Speech Style, and Masker". Journal of Speech, Language, and Hearing Research 57, nr 5 (październik 2014): 1908–18. http://dx.doi.org/10.1044/jslhr-h-13-0076.
Pełny tekst źródłaRecords, Nancy L. "A Measure of the Contribution of a Gesture to the Perception of Speech in Listeners With Aphasia". Journal of Speech, Language, and Hearing Research 37, nr 5 (październik 1994): 1086–99. http://dx.doi.org/10.1044/jshr.3705.1086.
Pełny tekst źródłaHelfer, Karen S. "Auditory and Auditory-Visual Perception of Clear and Conversational Speech". Journal of Speech, Language, and Hearing Research 40, nr 2 (kwiecień 1997): 432–43. http://dx.doi.org/10.1044/jslhr.4002.432.
Pełny tekst źródłaTaitelbaum-Swead, Riki, i Leah Fostick. "Auditory and visual information in speech perception: A developmental perspective". Clinical Linguistics & Phonetics 30, nr 7 (30.03.2016): 531–45. http://dx.doi.org/10.3109/02699206.2016.1151938.
Pełny tekst źródłaYakel, Deborah A., i Lawrence D. Rosenblum. "Time‐varying information for vowel identification in visual speech perception". Journal of the Acoustical Society of America 108, nr 5 (listopad 2000): 2482. http://dx.doi.org/10.1121/1.4743160.
Pełny tekst źródłaJohnson, Jennifer A., i Lawrence D. Rosenblum. "Hemispheric differences in perceiving and integrating dynamic visual speech information". Journal of the Acoustical Society of America 100, nr 4 (październik 1996): 2570. http://dx.doi.org/10.1121/1.417400.
Pełny tekst źródłaOgihara, Akio, Akira Shintani, Naoshi Doi i Kunio Fukunaga. "HMM Speech Recognition Using Fusion of Visual and Auditory Information". IEEJ Transactions on Electronics, Information and Systems 115, nr 11 (1995): 1317–24. http://dx.doi.org/10.1541/ieejeiss1987.115.11_1317.
Pełny tekst źródłaKeintz, Connie K., Kate Bunton i Jeannette D. Hoit. "Influence of Visual Information on the Intelligibility of Dysarthric Speech". American Journal of Speech-Language Pathology 16, nr 3 (sierpień 2007): 222–34. http://dx.doi.org/10.1044/1058-0360(2007/027).
Pełny tekst źródłaYuan, Yi, Andrew Lotto i Yonghee Oh. "Temporal cues from visual information benefit speech perception in noise". Journal of the Acoustical Society of America 146, nr 4 (październik 2019): 3056. http://dx.doi.org/10.1121/1.5137604.
Pełny tekst źródłaBlank, Helen, i Katharina von Kriegstein. "Mechanisms of enhancing visual–speech recognition by prior auditory information". NeuroImage 65 (styczeń 2013): 109–18. http://dx.doi.org/10.1016/j.neuroimage.2012.09.047.
Pełny tekst źródłaMoon, Il-Joon, Mini Jo, Ga-Young Kim, Nicolas Kim, Young-Sang Cho, Sung-Hwa Hong i Hye-Yoon Seol. "How Does a Face Mask Impact Speech Perception?" Healthcare 10, nr 9 (7.09.2022): 1709. http://dx.doi.org/10.3390/healthcare10091709.
Pełny tekst źródłaKubicek, Claudia, Anne Hillairet de Boisferon, Eve Dupierrix, Hélène Lœvenbruck, Judit Gervain i Gudrun Schwarzer. "Face-scanning behavior to silently-talking faces in 12-month-old infants: The impact of pre-exposed auditory speech". International Journal of Behavioral Development 37, nr 2 (25.02.2013): 106–10. http://dx.doi.org/10.1177/0165025412473016.
Pełny tekst źródłaMcCotter, Maxine V., i Timothy R. Jordan. "The Role of Facial Colour and Luminance in Visual and Audiovisual Speech Perception". Perception 32, nr 8 (sierpień 2003): 921–36. http://dx.doi.org/10.1068/p3316.
Pełny tekst źródła