Littérature scientifique sur le sujet « Multimodal perception of emotion »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Multimodal perception of emotion ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Multimodal perception of emotion"
de Boer, Minke J., Deniz Başkent et Frans W. Cornelissen. « Eyes on Emotion : Dynamic Gaze Allocation During Emotion Perception From Speech-Like Stimuli ». Multisensory Research 34, no 1 (7 juillet 2020) : 17–47. http://dx.doi.org/10.1163/22134808-bja10029.
Texte intégralVallverdú, Jordi, Gabriele Trovato et Lorenzo Jamone. « Allocentric Emotional Affordances in HRI : The Multimodal Binding ». Multimodal Technologies and Interaction 2, no 4 (6 novembre 2018) : 78. http://dx.doi.org/10.3390/mti2040078.
Texte intégralShackman, Jessica E., et Seth D. Pollak. « Experiential Influences on Multimodal Perception of Emotion ». Child Development 76, no 5 (septembre 2005) : 1116–26. http://dx.doi.org/10.1111/j.1467-8624.2005.00901.x.
Texte intégralBarabanschikov, V. A., et E. V. Suvorova. « Gender Differences in the Recognition of Emotional States ». Психологическая наука и образование 26, no 6 (2021) : 107–16. http://dx.doi.org/10.17759/pse.2021260608.
Texte intégralYamauchi, Takashi, Jinsil Seo et Annie Sungkajun. « Interactive Plants : Multisensory Visual-Tactile Interaction Enhances Emotional Experience ». Mathematics 6, no 11 (29 octobre 2018) : 225. http://dx.doi.org/10.3390/math6110225.
Texte intégralVani Vivekanand, Chettiyar. « Performance Analysis of Emotion Classification Using Multimodal Fusion Technique ». Journal of Computational Science and Intelligent Technologies 2, no 1 (16 avril 2021) : 14–20. http://dx.doi.org/10.53409/mnaa/jcsit/2103.
Texte intégralLavan, Nadine, et Carolyn McGettigan. « Increased Discriminability of Authenticity from Multimodal Laughter is Driven by Auditory Information ». Quarterly Journal of Experimental Psychology 70, no 10 (octobre 2017) : 2159–68. http://dx.doi.org/10.1080/17470218.2016.1226370.
Texte intégralPortnova, Galina, Aleksandra Maslennikova, Natalya Zakharova et Olga Martynova. « The Deficit of Multimodal Perception of Congruent and Non-Congruent Fearful Expressions in Patients with Schizophrenia : The ERP Study ». Brain Sciences 11, no 1 (13 janvier 2021) : 96. http://dx.doi.org/10.3390/brainsci11010096.
Texte intégralMittal, Trisha, Aniket Bera et Dinesh Manocha. « Multimodal and Context-Aware Emotion Perception Model With Multiplicative Fusion ». IEEE MultiMedia 28, no 2 (1 avril 2021) : 67–75. http://dx.doi.org/10.1109/mmul.2021.3068387.
Texte intégralMontembeault, Maxime, Estefania Brando, Kim Charest, Alexandra Tremblay, Élaine Roger, Pierre Duquette et Isabelle Rouleau. « Multimodal emotion perception in young and elderly patients with multiple sclerosis ». Multiple Sclerosis and Related Disorders 58 (février 2022) : 103478. http://dx.doi.org/10.1016/j.msard.2021.103478.
Texte intégralThèses sur le sujet "Multimodal perception of emotion"
Cox, A. G. « Multimodal emotion perception from facial and vocal signals ». Thesis, University of Cambridge, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.598105.
Texte intégralREALDON, OLIVIA. « Differenze culturali nella percezione multimodale delle emozioni ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2012. http://hdl.handle.net/10281/37944.
Texte intégralur, Réhman Shafiq. « Expressing emotions through vibration for perception and control ». Doctoral thesis, Umeå universitet, Institutionen för tillämpad fysik och elektronik, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-32990.
Texte intégralTaktil Video
Fernández, Carbonell Marcos. « Automated Multimodal Emotion Recognition ». Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-282534.
Texte intégralAtt kunna läsa och tolka affektiva tillstånd spelar en viktig roll i det mänskliga samhället. Detta är emellertid svårt i vissa situationer, särskilt när information är begränsad till antingen vokala eller visuella signaler. Många forskare har undersökt de så kallade grundläggande känslorna på ett övervakat sätt. Det här examensarbetet innehåller resultaten från en multimodal övervakad och oövervakad studie av ett mer realistiskt antal känslor. För detta ändamål extraheras ljud- och videoegenskaper från GEMEP-data med openSMILE respektive OpenFace. Det övervakade tillvägagångssättet inkluderar jämförelse av flera lösningar och visar att multimodala pipelines kan överträffa unimodala sådana, även med ett större antal affektiva tillstånd. Den oövervakade metoden omfattar en konservativ och en utforskande metod för att hitta meningsfulla mönster i det multimodala datat. Den innehåller också ett innovativt förfarande för att bättre förstå resultatet av klustringstekniker.
Nguyen, Tien Dung. « Multimodal emotion recognition using deep learning techniques ». Thesis, Queensland University of Technology, 2020. https://eprints.qut.edu.au/180753/1/Tien%20Dung_Nguyen_Thesis.pdf.
Texte intégralGay, R. « Morality : Emotion, perception and belief ». Thesis, University of Oxford, 1985. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.371649.
Texte intégralLawrie, Louisa. « Adult ageing and emotion perception ». Thesis, University of Aberdeen, 2018. http://digitool.abdn.ac.uk:80/webclient/DeliveryManager?pid=239235.
Texte intégralAbrilian, Sarkis. « Représentation de comportements emotionnels multimodaux spontanés : perception, annotation et synthèse ». Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00620827.
Texte intégralAngelica, Lim. « MEI : Multimodal Emotional Intelligence ». 京都大学 (Kyoto University), 2014. http://hdl.handle.net/2433/188869.
Texte intégralKosti, Ronak. « Visual scene context in emotion perception ». Doctoral thesis, Universitat Oberta de Catalunya, 2019. http://hdl.handle.net/10803/667808.
Texte intégralLos estudios psicológicos muestran que el contexto de la escena, además de la expresión facial y la pose corporal, aporta información importante a nuestra percepción de las emociones de las personas. Sin embargo, el procesamiento del contexto para el reconocimiento automático de emociones no se ha explorado en profundidad, en parte debido a la falta de datos adecuados. En esta tesis presentamos EMOTIC, un conjunto de datos de imágenes de personas en situaciones naturales y diferentes anotadas con su aparente emoción. La base de datos EMOTIC combina dos tipos diferentes de representación de emociones: (1) un conjunto de 26 categorías de emociones y (2) las dimensiones continuas de valencia, excitación y dominación. También presentamos un análisis estadístico y algorítmico detallado del conjunto de datos junto con el análisis de concordancia de los anotadores. Los modelos CNN están entrenados en EMOTIC, combinando características de la persona con características de escena (contexto). Nuestros resultados muestran cómo el contexto de la escena aporta información importante para reconocer automáticamente los estados emocionales, lo cual motiva más investigaciones en esta dirección.
Psychological studies show that the context of a setting, in addition to facial expression and body language, lends important information that conditions our perception of people's emotions. However, context's processing in the case of automatic emotion recognition has not been explored in depth, partly due to the lack of sufficient data. In this thesis we present EMOTIC, a dataset of images of people in various natural scenarios annotated with their apparent emotion. The EMOTIC database combines two different types of emotion representation: (1) a set of 26 emotion categories, and (2) the continuous dimensions of valence, arousal and dominance. We also present a detailed statistical and algorithmic analysis of the dataset along with the annotators' agreement analysis. CNN models are trained using EMOTIC, combining a person's features with those of the setting (context). Our results not only show how the context of a setting contributes important information for automatically recognizing emotional states but also promote further research in this direction.
Livres sur le sujet "Multimodal perception of emotion"
André, Elisabeth, Laila Dybkjær, Wolfgang Minker, Heiko Neumann, Roberto Pieraccini et Michael Weber, dir. Perception in Multimodal Dialogue Systems. Berlin, Heidelberg : Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-69369-7.
Texte intégralStiefelhagen, Rainer, Rachel Bowers et Jonathan Fiscus, dir. Multimodal Technologies for Perception of Humans. Berlin, Heidelberg : Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-68585-2.
Texte intégralStiefelhagen, Rainer, et John Garofolo, dir. Multimodal Technologies for Perception of Humans. Berlin, Heidelberg : Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-69568-4.
Texte intégral1953-, Zimmer H. D., dir. Human memory : A multimodal approach. Seattle : Hogrefe & Huber Publishers, 1994.
Trouver le texte intégralVernon, McDonald P., Bloomberg Jacob et Lyndon B. Johnson Space Center., dir. Multimodal perception and multicriterion control of nested systems. Houston, Tex : National Aeronautics and Space Administration, Lyndon B. Johnson Space Center, 1999.
Trouver le texte intégralRiccio, Gary E. Multimodal perception and multicriterion control of nested systems. Houston, Tex : National Aeronautics and Space Administration, Lyndon B. Johnson Space Center, 1999.
Trouver le texte intégralRiccio, Gary E. Multimodal perception and multicriterion control of nested systems. Washington, D.C : National Aeronautics and Space Administration, 1998.
Trouver le texte intégralBadenhop, Dennis. Praktische Anschauung : Sinneswahrnehmung, Emotion und moralisches Begründen. Freiburg : Verlag Karl Alber, 2015.
Trouver le texte intégralSeymour, Julie, Abigail Hackett et Lisa Procter. Children's spatialities : Embodiment, emotion and agency. Houndmills, Basingstoke Hampshire : Palgrave Macmillan, 2015.
Trouver le texte intégralD, Ellis Ralph, et Newton Natika, dir. Consciousness & emotion : Agency, conscious choice, and selective perception. Amsterdam : John Benjamins Pub., 2004.
Trouver le texte intégralChapitres de livres sur le sujet "Multimodal perception of emotion"
Esposito, Anna, Domenico Carbone et Maria Teresa Riviello. « Visual Context Effects on the Perception of Musical Emotional Expressions ». Dans Biometric ID Management and Multimodal Communication, 73–80. Berlin, Heidelberg : Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-04391-8_10.
Texte intégralLi, Aijun. « Perception of Multimodal Emotional Expressions By Japanese and Chinese ». Dans Encoding and Decoding of Emotional Speech, 33–83. Berlin, Heidelberg : Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-662-47691-8_2.
Texte intégralHunter, Patrick G., et E. Glenn Schellenberg. « Music and Emotion ». Dans Music Perception, 129–64. New York, NY : Springer New York, 2010. http://dx.doi.org/10.1007/978-1-4419-6114-3_5.
Texte intégralBratton, John, Peter Sawchuk, Carolyn Forshaw, Militza Callinan et Martin Corbett. « Perception and emotion ». Dans Work and Organizational Behaviour, 128–58. London : Macmillan Education UK, 2010. http://dx.doi.org/10.1007/978-0-230-36602-2_5.
Texte intégralKotsia, Irene, Stefanos Zafeiriou, George Goudelis, Ioannis Patras et Kostas Karpouzis. « Multimodal Sensing in Affective Gaming ». Dans Emotion in Games, 59–84. Cham : Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-41316-7_4.
Texte intégralVasilescu, Ioana. « Emotion Perception and Recognition ». Dans Emotion-Oriented Systems, 191–213. Hoboken, NJ, USA : John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118601938.ch7.
Texte intégralWagner, Johannes, Florian Lingenfelser et Elisabeth André. « Building a Robust System for Multimodal Emotion Recognition ». Dans Emotion Recognition, 379–410. Hoboken, NJ, USA : John Wiley & Sons, Inc., 2015. http://dx.doi.org/10.1002/9781118910566.ch15.
Texte intégralKenemans, Leon, et Nick Ramsey. « Perception, Attention and Emotion ». Dans Psychology in the Brain, 178–98. London : Macmillan Education UK, 2013. http://dx.doi.org/10.1007/978-1-137-29614-6_8.
Texte intégralKret, Mariska E., Charlotte B. A. Sinke et Beatrice de Gelder. « Emotion Perception and Health ». Dans Emotion Regulation and Well-Being, 261–80. New York, NY : Springer New York, 2010. http://dx.doi.org/10.1007/978-1-4419-6953-8_16.
Texte intégralChen, Fang, Jianlong Zhou, Yang Wang, Kun Yu, Syed Z. Arshad, Ahmad Khawaji et Dan Conway. « Emotion and Cognitive Load ». Dans Robust Multimodal Cognitive Load Measurement, 173–83. Cham : Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-31700-7_11.
Texte intégralActes de conférences sur le sujet "Multimodal perception of emotion"
Zhang, Biqiao, Georg Essl et Emily Mower Provost. « Predicting the distribution of emotion perception : capturing inter-rater variability ». Dans ICMI '17 : INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA : ACM, 2017. http://dx.doi.org/10.1145/3136755.3136792.
Texte intégralZhang, Yue, Wanying Ding, Ran Xu et Xiaohua Hu. « Visual Emotion Representation Learning via Emotion-Aware Pre-training ». Dans Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California : International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/234.
Texte intégralGhaleb, Esam, Mirela Popa et Stylianos Asteriadis. « Multimodal and Temporal Perception of Audio-visual Cues for Emotion Recognition ». Dans 2019 8th International Conference on Affective Computing and Intelligent Interaction (ACII). IEEE, 2019. http://dx.doi.org/10.1109/acii.2019.8925444.
Texte intégralChen, Yishan, Zhiyang Jia, Kaoru Hirota et Yaping Dai. « A Multimodal Emotion Perception Model based on Context-Aware Decision-Level Fusion ». Dans 2022 41st Chinese Control Conference (CCC). IEEE, 2022. http://dx.doi.org/10.23919/ccc55666.2022.9902799.
Texte intégralNivedhan, Abilash, Line Ahm Mielby et Qian Janice Wang. « The Influence of Emotion-Oriented Extrinsic Visual and Auditory Cues on Coffee Perception : A Virtual Reality Experiment ». Dans ICMI '20 : INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA : ACM, 2020. http://dx.doi.org/10.1145/3395035.3425646.
Texte intégralSu, Qi, Fei Chen, Hanfei Li, Nan Yan et Lan Wang. « Multimodal Emotion Perception in Children with Autism Spectrum Disorder by Eye Tracking Study ». Dans 2018 IEEE-EMBS Conference on Biomedical Engineering and Sciences (IECBES). IEEE, 2018. http://dx.doi.org/10.1109/iecbes.2018.8626642.
Texte intégralDussard, Claire, Anahita Basirat, Nacim Betrouni, Caroline Moreau, David Devos, François Cabestaing et José Rouillard. « Preliminary Study of the Perception of Emotions Expressed by Virtual Agents in the Context of Parkinson's Disease ». Dans ICMI '20 : INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA : ACM, 2020. http://dx.doi.org/10.1145/3395035.3425219.
Texte intégralKunpeng Huang. « Multimodal detecting and analytic system for visual perception and emotional response ». Dans 2017 IEEE Integrated STEM Education Conference (ISEC). IEEE, 2017. http://dx.doi.org/10.1109/isecon.2017.7910224.
Texte intégralRanasinghe, Nimesha, Meetha Nesam James, Michael Gecawicz, Jonathan Bland et David Smith. « Influence of Electric Taste, Smell, Color, and Thermal Sensory Modalities on the Liking and Mediated Emotions of Virtual Flavor Perception ». Dans ICMI '20 : INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA : ACM, 2020. http://dx.doi.org/10.1145/3382507.3418862.
Texte intégralHong, Alexander, Yuma Tsuboi, Goldie Nejat et Beno Benhabib. « Multimodal Affect Recognition for Assistive Human-Robot Interactions ». Dans 2017 Design of Medical Devices Conference. American Society of Mechanical Engineers, 2017. http://dx.doi.org/10.1115/dmd2017-3332.
Texte intégralRapports d'organisations sur le sujet "Multimodal perception of emotion"
Maia, Maercio, Abrahão Baptista, Patricia Vanzella, Pedro Montoya et Henrique Lima. Neural correlates of the perception of emotions elicited by dance movements. A scope review. INPLASY - International Platform of Registered Systematic Review and Meta-analysis Protocols, février 2023. http://dx.doi.org/10.37766/inplasy2023.2.0086.
Texte intégralRúas-Araújo, J., M. I. Punín Larrea, H. Gómez Alvarado, P. Cuesta-Morales et S. Ratté. Neuroscience applied to perception analysis : Heart and emotion when listening to Ecuador’s national anthem. Revista Latina de Comunicación Social, juin 2015. http://dx.doi.org/10.4185/rlcs-2015-1052en.
Texte intégralBalali, Vahid, Arash Tavakoli et Arsalan Heydarian. A Multimodal Approach for Monitoring Driving Behavior and Emotions. Mineta Transportation Institute, juillet 2020. http://dx.doi.org/10.31979/mti.2020.1928.
Texte intégral