Articles de revues sur le sujet « Multimodal perception of emotion »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Multimodal perception of emotion ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
de Boer, Minke J., Deniz Başkent et Frans W. Cornelissen. « Eyes on Emotion : Dynamic Gaze Allocation During Emotion Perception From Speech-Like Stimuli ». Multisensory Research 34, no 1 (7 juillet 2020) : 17–47. http://dx.doi.org/10.1163/22134808-bja10029.
Texte intégralVallverdú, Jordi, Gabriele Trovato et Lorenzo Jamone. « Allocentric Emotional Affordances in HRI : The Multimodal Binding ». Multimodal Technologies and Interaction 2, no 4 (6 novembre 2018) : 78. http://dx.doi.org/10.3390/mti2040078.
Texte intégralShackman, Jessica E., et Seth D. Pollak. « Experiential Influences on Multimodal Perception of Emotion ». Child Development 76, no 5 (septembre 2005) : 1116–26. http://dx.doi.org/10.1111/j.1467-8624.2005.00901.x.
Texte intégralBarabanschikov, V. A., et E. V. Suvorova. « Gender Differences in the Recognition of Emotional States ». Психологическая наука и образование 26, no 6 (2021) : 107–16. http://dx.doi.org/10.17759/pse.2021260608.
Texte intégralYamauchi, Takashi, Jinsil Seo et Annie Sungkajun. « Interactive Plants : Multisensory Visual-Tactile Interaction Enhances Emotional Experience ». Mathematics 6, no 11 (29 octobre 2018) : 225. http://dx.doi.org/10.3390/math6110225.
Texte intégralVani Vivekanand, Chettiyar. « Performance Analysis of Emotion Classification Using Multimodal Fusion Technique ». Journal of Computational Science and Intelligent Technologies 2, no 1 (16 avril 2021) : 14–20. http://dx.doi.org/10.53409/mnaa/jcsit/2103.
Texte intégralLavan, Nadine, et Carolyn McGettigan. « Increased Discriminability of Authenticity from Multimodal Laughter is Driven by Auditory Information ». Quarterly Journal of Experimental Psychology 70, no 10 (octobre 2017) : 2159–68. http://dx.doi.org/10.1080/17470218.2016.1226370.
Texte intégralPortnova, Galina, Aleksandra Maslennikova, Natalya Zakharova et Olga Martynova. « The Deficit of Multimodal Perception of Congruent and Non-Congruent Fearful Expressions in Patients with Schizophrenia : The ERP Study ». Brain Sciences 11, no 1 (13 janvier 2021) : 96. http://dx.doi.org/10.3390/brainsci11010096.
Texte intégralMittal, Trisha, Aniket Bera et Dinesh Manocha. « Multimodal and Context-Aware Emotion Perception Model With Multiplicative Fusion ». IEEE MultiMedia 28, no 2 (1 avril 2021) : 67–75. http://dx.doi.org/10.1109/mmul.2021.3068387.
Texte intégralMontembeault, Maxime, Estefania Brando, Kim Charest, Alexandra Tremblay, Élaine Roger, Pierre Duquette et Isabelle Rouleau. « Multimodal emotion perception in young and elderly patients with multiple sclerosis ». Multiple Sclerosis and Related Disorders 58 (février 2022) : 103478. http://dx.doi.org/10.1016/j.msard.2021.103478.
Texte intégralBai, Jie. « Optimized Piano Music Education Model Based on Multimodal Information Fusion for Emotion Recognition in Multimedia Video Networks ». Mobile Information Systems 2022 (24 août 2022) : 1–12. http://dx.doi.org/10.1155/2022/1882739.
Texte intégralHancock, Megan R., et Tessa Bent. « Multimodal emotion perception : Influences of autism spectrum disorder and autism-like traits ». Journal of the Acoustical Society of America 148, no 4 (octobre 2020) : 2765. http://dx.doi.org/10.1121/1.5147698.
Texte intégralBänziger, Tanja, Marcello Mortillaro et Klaus R. Scherer. « Introducing the Geneva Multimodal expression corpus for experimental research on emotion perception. » Emotion 12, no 5 (2012) : 1161–79. http://dx.doi.org/10.1037/a0025827.
Texte intégralHorii, Takato, Yukie Nagai et Minoru Asada. « Modeling Development of Multimodal Emotion Perception Guided by Tactile Dominance and Perceptual Improvement ». IEEE Transactions on Cognitive and Developmental Systems 10, no 3 (septembre 2018) : 762–75. http://dx.doi.org/10.1109/tcds.2018.2809434.
Texte intégralBarabanschikov, V. A., et O. A. Korolkova. « Perception of “Live” Facial Expressions ». Experimental Psychology (Russia) 13, no 3 (2020) : 55–73. http://dx.doi.org/10.17759/exppsy.2020130305.
Texte intégralde Gelder, Beatrice, et Jean Vroomen. « Rejoinder - Bimodal emotion perception : integration across separate modalities, cross-modal perceptual grouping or perception of multimodal events ? » Cognition & ; Emotion 14, no 3 (mai 2000) : 321–24. http://dx.doi.org/10.1080/026999300378842.
Texte intégralLuna-Jiménez, Cristina, Ricardo Kleinlein, David Griol, Zoraida Callejas, Juan M. Montero et Fernando Fernández-Martínez. « A Proposal for Multimodal Emotion Recognition Using Aural Transformers and Action Units on RAVDESS Dataset ». Applied Sciences 12, no 1 (30 décembre 2021) : 327. http://dx.doi.org/10.3390/app12010327.
Texte intégralMiao, Haotian, Yifei Zhang, Daling Wang et Shi Feng. « Multi-Output Learning Based on Multimodal GCN and Co-Attention for Image Aesthetics and Emotion Analysis ». Mathematics 9, no 12 (20 juin 2021) : 1437. http://dx.doi.org/10.3390/math9121437.
Texte intégralBerkane, Mohamed, Kenza Belhouchette et Hacene Belhadef. « Emotion Recognition Approach Using Multilayer Perceptron Network and Motion Estimation ». International Journal of Synthetic Emotions 10, no 1 (janvier 2019) : 38–53. http://dx.doi.org/10.4018/ijse.2019010102.
Texte intégralBabaoğlu, Gizem, Başak Yazgan, Pınar Erturk, Etienne Gaudrain, Laura Rachman, Leanne Nagels, Stefan Launer et al. « Vocal emotion recognition by native Turkish children with normal hearing and with hearing aids ». Journal of the Acoustical Society of America 151, no 4 (avril 2022) : A278. http://dx.doi.org/10.1121/10.0011335.
Texte intégralPrajapati, Vrinda, Rajlakshmi Guha et Aurobinda Routray. « Multimodal prediction of trait emotional intelligence–Through affective changes measured using non-contact based physiological measures ». PLOS ONE 16, no 7 (9 juillet 2021) : e0254335. http://dx.doi.org/10.1371/journal.pone.0254335.
Texte intégralPiwek, Lukasz, Karin Petrini et Frank E. Pollick. « Auditory signal dominates visual in the perception of emotional social interactions ». Seeing and Perceiving 25 (2012) : 112. http://dx.doi.org/10.1163/187847612x647450.
Texte intégralDeaca, Mircea Valeriu. « Circular Causality of Emotions in Moving Pictures ». Acta Universitatis Sapientiae, Film and Media Studies 20, no 1 (1 novembre 2021) : 86–110. http://dx.doi.org/10.2478/ausfm-2021-0016.
Texte intégralBarabanschikov, V. A., et E. V. Suvorova. « Part-Whole Perception of Audiovideoimages of Multimodal Emotional States of a Person ». Experimental Psychology (Russia) 15, no 4 (2022) : 4–21. http://dx.doi.org/10.17759/exppsy.2022150401.
Texte intégralTiihonen, Marianne, Thomas Jacobsen, Niels Trusbak Haumann, Suvi Saarikallio et Elvira Brattico. « I know what i like when i see it : Likability is distinct from pleasantness since early stages of multimodal emotion evaluation ». PLOS ONE 17, no 9 (13 septembre 2022) : e0274556. http://dx.doi.org/10.1371/journal.pone.0274556.
Texte intégralZhi, Junnan, Tingting Song, Kang Yu, Fengen Yuan, Huaqiang Wang, Guangyang Hu et Hao Yang. « Multi-Attention Module for Dynamic Facial Emotion Recognition ». Information 13, no 5 (19 avril 2022) : 207. http://dx.doi.org/10.3390/info13050207.
Texte intégralMishra, Sudhakar, Narayanan Srinivasan et Uma Shanker Tiwary. « Cardiac–Brain Dynamics Depend on Context Familiarity and Their Interaction Predicts Experience of Emotional Arousal ». Brain Sciences 12, no 6 (29 mai 2022) : 702. http://dx.doi.org/10.3390/brainsci12060702.
Texte intégralZahn, Nina N., Greice Pinho Dal Molin et Soraia Raupp Musse. « Investigating sentiments in Brazilian and German Blogs ». Journal of the Brazilian Computer Society 28, no 1 (30 décembre 2022) : 96–103. http://dx.doi.org/10.5753/jbcs.2022.2214.
Texte intégralCominelli, Lorenzo, Nicola Carbonaro, Daniele Mazzei, Roberto Garofalo, Alessandro Tognetti et Danilo De Rossi. « A Multimodal Perception Framework for Users Emotional State Assessment in Social Robotics ». Future Internet 9, no 3 (1 août 2017) : 42. http://dx.doi.org/10.3390/fi9030042.
Texte intégralWang, Cheng-Hung, et Hao-Chiang Koong Lin. « Emotional Design Tutoring System Based on Multimodal Affective Computing Techniques ». International Journal of Distance Education Technologies 16, no 1 (janvier 2018) : 103–17. http://dx.doi.org/10.4018/ijdet.2018010106.
Texte intégralDove, Guy. « Language as a disruptive technology : abstract concepts, embodiment and the flexible mind ». Philosophical Transactions of the Royal Society B : Biological Sciences 373, no 1752 (18 juin 2018) : 20170135. http://dx.doi.org/10.1098/rstb.2017.0135.
Texte intégralIosifyan, Marina, Olga Korolkova et Igor Vlasov. « Emotional and Semantic Associations Between Cinematographic Aesthetics and Haptic Perception ». Multisensory Research 30, no 7-8 (2017) : 783–98. http://dx.doi.org/10.1163/22134808-00002597.
Texte intégralWu, Lin. « Multimodal Opera Performance Form Based on Human-Computer Interaction Technology ». International Transactions on Electrical Energy Systems 2022 (8 octobre 2022) : 1–13. http://dx.doi.org/10.1155/2022/4003245.
Texte intégralWarrenburg, Lindsay A., Lindsey Reymore et Daniel Shanahan. « The communication of melancholy, grief, and fear in dance with and without music ». Human Technology 16, no 3 (30 novembre 2020) : 283–309. http://dx.doi.org/10.17011/ht/urn.202011256766.
Texte intégralMartinez, Antigona, Russell Tobe, Melissa Breland, Alexis Lieval, Babak Ardekani et Daniel Javitt. « 39.2 MULTIMODAL INVESTIGATION OF CONVERGENT AND DIVERGENT PATTERNS OF ATYPICAL VISUAL PROCESSING UNDERLYING FACE EMOTION RECOGNITION AND MOTION PERCEPTION IN SCHIZOPHRENIA AND AUTISM ». Schizophrenia Bulletin 45, Supplement_2 (avril 2019) : S151—S152. http://dx.doi.org/10.1093/schbul/sbz022.160.
Texte intégralBarabanschikov, V. A., M. M. Marinova et A. D. Abramov. « Virtual Personality of a Moving Thatcherized Face ». Психологическая наука и образование 26, no 1 (2021) : 5–18. http://dx.doi.org/10.17759/pse.2021000001.
Texte intégralKoltsova, Elena A., et Faina I. Kartashkova. « Digital Communication and Multimodal Features : Functioning of Emoji in Interpersonal Communication ». RUDN Journal of Language Studies, Semiotics and Semantics 13, no 3 (30 septembre 2022) : 769–83. http://dx.doi.org/10.22363/2313-2299-2022-13-3-769-783.
Texte intégralChow, Ho Ming, Raymond A. Mar, Yisheng Xu, Siyuan Liu, Suraji Wagage et Allen R. Braun. « Embodied Comprehension of Stories : Interactions between Language Regions and Modality-specific Neural Systems ». Journal of Cognitive Neuroscience 26, no 2 (février 2014) : 279–95. http://dx.doi.org/10.1162/jocn_a_00487.
Texte intégralWöllner, Clemens. « Is empathy related to the perception of emotional expression in music ? A multimodal time-series analysis. » Psychology of Aesthetics, Creativity, and the Arts 6, no 3 (août 2012) : 214–23. http://dx.doi.org/10.1037/a0027392.
Texte intégralCui, Cui. « Intelligent Analysis of Exercise Health Big Data Based on Deep Convolutional Neural Network ». Computational Intelligence and Neuroscience 2022 (28 juin 2022) : 1–11. http://dx.doi.org/10.1155/2022/5020150.
Texte intégralYang, Youngeun. « Comprehending Dance through Empathy : A Spectator’s Total Body-Mind Experience of Watching Wind of May (Moon, 2020) ». Dance Research 40, no 1 (mai 2022) : 61–84. http://dx.doi.org/10.3366/drs.2022.0358.
Texte intégralWible, Cynthia Gayle. « Schizophrenia as a Disorder of Social Communication ». Schizophrenia Research and Treatment 2012 (2012) : 1–12. http://dx.doi.org/10.1155/2012/920485.
Texte intégralKiefer, Markus, et Marcel Harpaintner. « Varieties of abstract concepts and their grounding in perception or action ». Open Psychology 2, no 1 (1 juillet 2020) : 119–37. http://dx.doi.org/10.1515/psych-2020-0104.
Texte intégralVOVK, Olena, Lyubov ZENYA et Ilona BROVARSKA. « NEUROPEDAGOGY : A CONCEPT OF BRAIN COMPATIBLE TEACHING A FOREIGN LANGUAGE ». Cherkasy University Bulletin : Pedagogical Sciences, no 2 (2022) : 64–73. http://dx.doi.org/10.31651/2524-2660-2022-2-64-73.
Texte intégralIram Amjad. « A Multimodal Analysis of Qawwali ». Linguistics and Literature Review 3, no 1 (31 mars 2017) : 13–25. http://dx.doi.org/10.32350/llr.v3i1.263.
Texte intégralEdlund, Sara M., Matilda Wurm, Fredrik Holländare, Steven J. Linton, Alan E. Fruzzetti et Maria Tillfors. « Pain patients’ experiences of validation and invalidation from physicians before and after multimodal pain rehabilitation : Associations with pain, negative affectivity, and treatment outcome ». Scandinavian Journal of Pain 17, no 1 (1 octobre 2017) : 77–86. http://dx.doi.org/10.1016/j.sjpain.2017.07.007.
Texte intégralEgorova, Liudmila A. « Popular Science Discourse Development in the Cyberspace ». Advances in Language and Literary Studies 9, no 5 (31 octobre 2018) : 79. http://dx.doi.org/10.7575/aiac.alls.v.9n.5p.79.
Texte intégralShkvorchenko, N. « SEMIOTIZATION OF POLITICAL TOXICITY IN THE MEDIA SPACES OF THE USA, GREAT BRITAIN AND UKRAINE : A MULTIMODAL ASPECT ». MESSENGER of Kyiv National Linguistic University. Series Philology 25, no 1 (26 août 2022) : 142–51. http://dx.doi.org/10.32589/2311-0821.1.2022.263132.
Texte intégralMitchell, John T., Thomas S. Weisner, Peter S. Jensen, Desiree W. Murray, Brooke S. G. Molina, L. Eugene Arnold, Lily Hechtman et al. « How Substance Users With ADHD Perceive the Relationship Between Substance Use and Emotional Functioning ». Journal of Attention Disorders 22, no 9_suppl (1 février 2017) : 49S—60S. http://dx.doi.org/10.1177/1087054716685842.
Texte intégralChoe, Kyung-II. « An Emotion-Space Model of Multimodal Emotion Recognition ». Advanced Science Letters 24, no 1 (1 janvier 2018) : 699–702. http://dx.doi.org/10.1166/asl.2018.11791.
Texte intégral