Academic literature on the topic 'Reconnaissance des émotions vocales'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Reconnaissance des émotions vocales.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Reconnaissance des émotions vocales"

1

Debaecker, Jean. "Reconnaissance des émotions dans la musique." Les cahiers du numérique 7, no. 2 (June 30, 2011): 135–55. http://dx.doi.org/10.3166/lcn.7.2.135-155.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Da Fonseca, D., and C. Deruelle. "Reconnaissance des émotions et syndrome d’Asperger." Neuropsychiatrie de l'Enfance et de l'Adolescence 58, no. 6-7 (September 2010): 405–9. http://dx.doi.org/10.1016/j.neurenf.2010.05.005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Krolak-Salmon, P. "La reconnaissance des émotions dans les maladies neurodégénératives." La Revue de Médecine Interne 32, no. 12 (December 2011): 721–23. http://dx.doi.org/10.1016/j.revmed.2011.08.005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gaudelus, B., J. Virgile, E. Peyroux, A. Leleu, J. Y. Baudouin, and N. Franck. "Mesure du déficit de reconnaissance des émotions faciales dans la schizophrénie. Étude préliminaire du test de reconnaissance des émotions faciales (TREF)." L'Encéphale 41, no. 3 (June 2015): 251–59. http://dx.doi.org/10.1016/j.encep.2014.08.013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Camoreyt, Aurore, Marie-Camille Berthel-Tàtray, Maylis Burle, Mariano Musacchio, Nathalie Ehrlé, and François Sellal. "Troubles de la reconnaissance des émotions après lésion cérébelleuse focale." Revue Neurologique 173 (March 2017): S184—S185. http://dx.doi.org/10.1016/j.neurol.2017.01.359.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Granato, P., O. Godefroy, J. P. Van Gansberghe, and R. Bruyer. "La reconnaissance visuelle des émotions faciales dans la schizophrénie chronique." Annales Médico-psychologiques, revue psychiatrique 167, no. 10 (December 2009): 753–58. http://dx.doi.org/10.1016/j.amp.2009.03.012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bediou, B., I. Riff, M. Milliéry, B. Mercier, A. Vighetto, M. Bonnefoy, and P. Krolak-Salmon. "Altération de la reconnaissance des émotions dans la maladie d'Alzheimer légère." La Revue de Médecine Interne 27 (December 2006): S374. http://dx.doi.org/10.1016/j.revmed.2006.10.212.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

De Moura, Marie, Bruno Lenne, Jacques Honoré, Arnaud Kwiatkowski, Patrick Hautecoeur, and Henrique Sequeira. "Reconnaissance des émotions dans la sclérose en plaques. Une approche neurocomportementale." Revue Neurologique 172 (April 2016): A93—A94. http://dx.doi.org/10.1016/j.neurol.2016.01.226.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Pochon, R., P. Brun, and D. Mellier. "Développement de la reconnaissance des émotions chez l'enfant avec trisomie 21." Psychologie Française 51, no. 4 (December 2006): 381–90. http://dx.doi.org/10.1016/j.psfr.2006.05.003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

MENANT, O., A. DESTREZ, V. DEISS, A. BOISSY, P. DELAGRANGE, L. CALANDREAU, and Elodie CHAILLOU. "Régulation des émotions chez l’animal d’élevage : focus sur les acteurs neurobiologiques." INRA Productions Animales 29, no. 4 (December 13, 2019): 241–54. http://dx.doi.org/10.20870/productions-animales.2016.29.4.2966.

Full text
Abstract:
La question des émotions des animaux d’élevage s’inscrit dans la volonté d’améliorer les conditions d’élevage en prenant en compte leur bien-être. La genèse des émotions repose sur la capacité cognitive des individus à percevoir, évaluer et réagir à leur environnement. La capacité de perception met en jeu différentes sensorialités et participe à la reconnaissance des éléments de l’environnement de l’animal sans nécessairement déclencher d’émotions. Les situations déclenchantes d’émotion les plus étudiées chez les animaux d’élevage sont la nouveauté, la séparation sociale ou la présence d’un être humain. De plus, les réactions émotionnelles, évaluées par les réponses comportementales, endocriniennes et neurovégétatives sont modulées par le genre, l’état physiologique ou certaines hormones comme la mélatonine. Les structures cérébrales du réseau neuronal des émotions sont impliquées dans la perception et le traitement des informations de l’environnement, et/ou dans l’expression des réponses émotionnelles. Chez les animaux d’élevage, les structures cérébrales les plus étudiées sont le système olfactif pour la perception, le cortex frontal et l’amygdale pour le traitement des informations, le noyau paraventriculaire de l’hypothalamus pour les réponses endocriniennes. D’autres travaux suggèrent le rôle potentiel de structures du tronc cérébral dans les réponses neurovégétatives et de la substance grise périaqueducale dans les réponses comportementales et plus largement dans les stratégies d’adaptation. En perspective, il est maintenant nécessaire d’étudier l’impact de l’expérience précoce sur le développement du réseau neuronal des émotions et de mieux comprendre la part de l’évaluation cognitive dans la genèse des émotions.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Reconnaissance des émotions vocales"

1

Gharsalli, Sonia. "Reconnaissance des émotions par traitement d’images." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2075/document.

Full text
Abstract:
La reconnaissance des émotions est l'un des domaines scientifiques les plus complexes. Ces dernières années, de plus en plus d'applications tentent de l'automatiser. Ces applications innovantes concernent plusieurs domaines comme l'aide aux enfants autistes, les jeux vidéo, l'interaction homme-machine. Les émotions sont véhiculées par plusieurs canaux. Nous traitons dans notre recherche les expressions émotionnelles faciales en s'intéressant spécifiquement aux six émotions de base à savoir la joie, la colère, la peur, le dégoût, la tristesse et la surprise. Une étude comparative de deux méthodes de reconnaissance des émotions l'une basée sur les descripteurs géométriques et l'autre basée sur les descripteurs d'apparence est effectuée sur la base CK+, base d'émotions simulées, et la base FEEDTUM, base d'émotions spontanées. Différentes contraintes telles que le changement de résolution, le nombre limité d'images labélisées dans les bases d'émotions, la reconnaissance de nouveaux sujets non inclus dans la base d'apprentissage sont également prises en compte. Une évaluation de différents schémas de fusion est ensuite réalisée lorsque de nouveaux cas, non inclus dans l'ensemble d'apprentissage, sont considérés. Les résultats obtenus sont prometteurs pour les émotions simulées (ils dépassent 86%), mais restent insuffisant pour les émotions spontanées. Nous avons appliqué également une étude sur des zones locales du visage, ce qui nous a permis de développer des méthodes hybrides par zone. Ces dernières améliorent les taux de reconnaissance des émotions spontanées. Finalement, nous avons développé une méthode de sélection des descripteurs d'apparence basée sur le taux d'importance que nous avons comparée avec d'autres méthodes de sélection. La méthode de sélection proposée permet d'améliorer le taux de reconnaissance par rapport aux résultats obtenus par deux méthodes reprises de la littérature
Emotion recognition is one of the most complex scientific domains. In the last few years, various emotion recognition systems are developed. These innovative applications are applied in different domains such as autistic children, video games, human-machine interaction… Different channels are used to express emotions. We focus on facial emotion recognition specially the six basic emotions namely happiness, anger, fear, disgust, sadness and surprise. A comparative study between geometric method and appearance method is performed on CK+ database as the posed emotion database, and FEEDTUM database as the spontaneous emotion database. We consider different constraints in this study such as different image resolutions, the low number of labelled images in learning step and new subjects. We evaluate afterward various fusion schemes on new subjects, not included in the training set. Good recognition rate is obtained for posed emotions (more than 86%), however it is still low for spontaneous emotions. Based on local feature study, we develop local features fusion methods. These ones increase spontaneous emotions recognition rates. A feature selection method is finally developed based on features importance scores. Compared with two methods, our developed approach increases the recognition rate
APA, Harvard, Vancouver, ISO, and other styles
2

Deschamps-Berger, Théo. "Social Emotion Recognition with multimodal deep learning architecture in emergency call centers." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG036.

Full text
Abstract:
Cette thèse porte sur les systèmes de reconnaissance automatique des émotions dans la parole, dans un contexte d'urgence médicale. Elle aborde certains des défis rencontrés lors de l'étude des émotions dans les interactions sociales et est ancrée dans les théories modernes des émotions, en particulier celles de Lisa Feldman Barrett sur la construction des émotions. En effet, la manifestation des émotions spontanées dans les interactions humaines est complexe et souvent caractérisée par des nuances, des mélanges et étroitement liée au contexte. Cette étude est fondée sur le corpus CEMO, composé de conversations téléphoniques entre appelants et Agents de Régulation Médicale (ARM) d'un centre d'appels d'urgence français. Ce corpus fournit un ensemble riche de données pour évaluer la capacité des systèmes d'apprentissage profond, tels que les Transformers et les modèles pré-entraînés, à reconnaître les émotions spontanées dans les interactions parlées. Les applications pourraient être de fournir des indices émotionnels susceptibles d'améliorer la gestion des appels et la prise de décision des ARM ou encore de faire des synthèses des appels. Les travaux menés dans ma thèse ont porté sur différentes techniques liées à la reconnaissance des émotions vocales, notamment l'apprentissage par transfert à partir de modèles pré-entraînés, les stratégies de fusion multimodale, l'intégration du contexte dialogique et la détection d'émotions mélangées. Un système acoustique initial basé sur des convolutions temporelles et des réseaux récurrents a été développé et validé sur un corpus émotionnel connu de la communauté affective, appelé IEMOCAP puis sur le corpus CEMO. Des recherches approfondies sur des systèmes multimodaux, pré-entraînés en acoustique et linguistique et adaptés à la reconnaissance des émotions, sont présentées. En outre, l'intégration du contexte dialogique dans la détection des émotions a été explorée, mettant en lumière la dynamique complexe des émotions dans les interactions sociales. Enfin, des travaux ont été initiés sur des systèmes multi-étiquettes multimodaux capables de traiter les subtilités des émotions mélangées dues à l'ambiguïté de la perception des annotateurs et du contexte social. Nos recherches mettent en évidence certaines solutions et défis liés à la reconnaissance des émotions dans des situations "in the wild". Cette thèse est financée par la Chaire CNRS AI HUMAAINE : HUman-MAchine Interaction Affective & Ethique
This thesis explores automatic speech-emotion recognition systems in a medical emergency context. It addresses some of the challenges encountered when studying emotions in social interactions. It is rooted in modern theories of emotions, particularly those of Lisa Feldman Barrett on the construction of emotions. Indeed, the manifestation of emotions in human interactions is complex and often characterized by nuanced, mixed, and is highly linked to the context. This study is based on the CEMO corpus, which is composed of telephone conversations between callers and emergency medical dispatchers (EMD) from a French emergency call center. This corpus provides a rich dataset to explore the capacity of deep learning systems, such as Transformers and pre-trained models, to recognize spontaneous emotions in spoken interactions. The applications could be to provide emotional cues that could improve call handling and decision-making by EMD, or to summarize calls. The work carried out in my thesis focused on different techniques related to speech emotion recognition, including transfer learning from pre-trained models, multimodal fusion strategies, dialogic context integration, and mixed emotion detection. An initial acoustic system based on temporal convolutions and recurrent networks was developed and validated on an emotional corpus widely used by the affective community, called IEMOCAP, and then on the CEMO corpus. Extensive research on multimodal systems, pre-trained in acoustics and linguistics and adapted to emotion recognition, is presented. In addition, the integration of dialog context in emotion recognition was explored, underlining the complex dynamics of emotions in social interactions. Finally, research has been initiated towards developing multi-label, multimodal systems capable of handling the subtleties of mixed emotions, often due to the annotator's perception and social context. Our research highlights some solutions and challenges in recognizing emotions in the wild. The CNRS AI HUMAAINE Chair: HUman-MAchine Affective Interaction & Ethics funded this thesis
APA, Harvard, Vancouver, ISO, and other styles
3

Vazquez, Rodriguez Juan Fernando. "Transformateurs multimodaux pour la reconnaissance des émotions." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALM057.

Full text
Abstract:
La santé mentale et le bien-être émotionnel ont une influence significative sur la santé physique et sont particulièrement importants pour un viellissement en bonne santé. Les avancées continues dans le domaine des capteurs et de la microélectronique en général ont permis l’avènement de nouvelles technologies pouvant être déployées dans les maisons pour surveiller la santé et le bien-être des occupants. Ces technologies de captation peuvent être combinées aux avancées récentes sur l’apprentissage automatique pour proposer des services utiles pour vieillir en bonne santé. Dans ce cadre, un système de reconnaissance automatique d’émotions peut être un outil s’assurant du bien-être de personnes fragiles. Dès lors, il est intéressant de développer un système pouvant déduire des informations sur les émotions humaines à partir de modalités de captation multiples, et pouvant être entrainé sans requérir de larges jeux de données labellisées d’apprentissage.Cette thèse aborde le problème de la reconnaissance d’émotions à partir de différents types de signaux qu’un environnement intelligent peut capter, tels que des signaux visuels, audios, et physiologiques. Pour ce faire, nous développons différents modèles basés sur l’architecture extit{Transformer}, possédant des caractéristiques utiles à nos besoins comme la capacité à modéliser des dépendances longues et à sélectionner les parties importantes des signaux entrants. Nous proposons en premier lieu un modèle pour reconnaitre les émotions à partir de signaux physiologiques individuels. Nous proposons une technique de pré-apprentissage auto-supervisé utilisant des données physiologiques non-labellisées, qui améliore les performances du modèle. Cette approche est ensuite étendue pour exploiter la complémentarité de différents types de signaux physiologiques. Nous développons un modèle qui combine ces différents signaux physiologiques, et qui exploite également le pré-apprentissage auto-supervisé. Nous proposons une méthode de pré-apprentissage qui ne nécessite pas un jeu de données unique contenant tous les types de signaux utilisés, pouvant au contraire être pré-entrainé avec des jeux de données différents pour chaque type de signal.Pour tirer parti des différentes modalités qu’un environnement connecté peut offrir, nous proposons un modèle multimodal exploitant des signaux vidéos, audios, et physiologiques. Ces signaux étant de natures différentes, ils capturent des modes distincts d’expression des émotions, qui peuvent être complémentaires et qu’il est donc intéressant d’exploiter simultanément. Cependant, dans des situations d’usage réelles, il se peut que certaines de ces modalités soient manquantes. Notre modèle est suffisamment flexible pour continuer à fonctionner lorsqu’une modalité est manquante, mais sera moins performant. Nous proposons alors une stratégie d’apprentissage permettant de réduire ces baisses de performances lorsqu’une modalité est manquante.Les méthodes développées dans cette thèse sont évaluées sur plusieurs jeux de données. Les résultats obtenus montrent que nos approches de extit{Transformer} pré-entrainé sont performantes pour reconnaitre les émotions à partir de signaux physiologiques. Nos résultats mettent également en lumière les capacités de notre solution à aggréger différents signaux multimodaux, et à s’adapter à l’absence de l’un d’entre eux. Ces résultats montrent que les approches proposées sont adaptées pour reconnaitre les émotions à partir de multiples capteurs de l’environnement. Nos travaux ouvrent de nouvelles pistes de recherche sur l’utilisation des extit{Transformers} pour traiter les informations de capteurs d’environnements intelligents et sur la reconnaissance d’émotions robuste dans les cas où des modalités sont manquantes. Les résultats de ces travaux peuvent contribuer à améliorer l’attention apportée à la santé mentale des personnes fragiles
Mental health and emotional well-being have significant influence on physical health, and are especially important for healthy aging. Continued progress on sensors and microelectronics has provided a number of new technologies that can be deployed in homes and used to monitor health and well-being. These can be combined with recent advances in machine learning to provide services that enhance the physical and emotional well-being of individuals to promote healthy aging. In this context, an automatic emotion recognition system can provide a tool to help assure the emotional well-being of frail people. Therefore, it is desirable to develop a technology that can draw information about human emotions from multiple sensor modalities and can be trained without the need for large labeled training datasets.This thesis addresses the problem of emotion recognition using the different types of signals that a smart environment may provide, such as visual, audio, and physiological signals. To do this, we develop different models based on the Transformer architecture, which has useful characteristics such as their capacity to model long-range dependencies, as well as their capability to discern the relevant parts of the input. We first propose a model to recognize emotions from individual physiological signals. We propose a self-supervised pre-training technique that uses unlabeled physiological signals, showing that that pre-training technique helps the model to perform better. This approach is then extended to take advantage of the complementarity of information that may exist in different physiological signals. For this, we develop a model that combines different physiological signals and also uses self-supervised pre-training to improve its performance. We propose a method for pre-training that does not require a dataset with the complete set of target signals, but can rather, be trained on individual datasets from each target signal.To further take advantage of the different modalities that a smart environment may provide, we also propose a model that uses as inputs multimodal signals such as video, audio, and physiological signals. Since these signals are of a different nature, they cover different ways in which emotions are expressed, thus they should provide complementary information concerning emotions, and therefore it is appealing to use them together. However, in real-world scenarios, there might be cases where a modality is missing. Our model is flexible enough to continue working when a modality is missing, albeit with a reduction in its performance. To address this problem, we propose a training strategy that reduces the drop in performance when a modality is missing.The methods developed in this thesis are evaluated using several datasets, obtaining results that demonstrate the effectiveness of our approach to pre-train Transformers to recognize emotions from physiological signals. The results also show the efficacy of our Transformer-based solution to aggregate multimodal information, and to accommodate missing modalities. These results demonstrate the feasibility of the proposed approaches to recognizing emotions from multiple environmental sensors. This opens new avenues for deeper exploration of using Transformer-based approaches to process information from environmental sensors and allows the development of emotion recognition technologies robust to missing modalities. The results of this work can contribute to better care for the mental health of frail people
APA, Harvard, Vancouver, ISO, and other styles
4

Bherer, François. "Expressions vocales spontanées et émotion : de l'extériorisation au jugement." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq33572.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Henry, Mylène. "La reconnaissance des émotions chez des enfants maltraités." Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/2069/1/030183277.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Aouati, Amar. "Utilisation des technologies vocales dans une application multicanaux." Paris 11, 1985. http://www.theses.fr/1985PA112373.

Full text
Abstract:
Le travail mené vise à réaliser un système, effectivement utilisable, de compréhension du langage employé par les contrôleurs aériens dans les échanges verbaux avec les pilotes. Dans cette optique sont utilisées des méthodes classiques d'intelligence artificielle adaptées à des systèmes de reconnaissance et de synthèse de la parole. Le système vise à interpréter le langage de travail, dont il utilise les contraintes. Le locuteur respecte des contraintes de débit pour la prononciation, et les règles de la "phraséologie" employée pour la formulation des phrases. Le système est entouré de plusieurs outils qui permettent de l'utiliser de façon opérationnelle : aide à la définition du langage de l'application, aide à la construction du vocabulaire de référence. Les options prises pour la réalisation du prototype 0 du terminal vocal intelligent ont permis un dialogue effectif avec un délai de réponse qui autorise le temps réel.
APA, Harvard, Vancouver, ISO, and other styles
7

Attabi, Yazid. "Reconnaissance automatique des émotions à partir du signal acoustique." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/168/1/ATTABI_Yazid.pdf.

Full text
Abstract:
Nous nous intéressons à la détection automatique des appels problématiques dans un contexte réel de centres d'appels téléphoniques. Nous utilisons l'information sur l'état émotionnel du locuteur, véhiculée par le signal acoustique, pour détecter les problèmes de compréhension entre un locuteur et un système de dialogue humain-machine. Notre contribution se situe à deux niveaux. Au premier niveau, nous avons développé un système de reconnaissance automatique des émotions (RAE) basé sur les traits de type MFCC, avec la célérité et l'accélération, extraits au niveau d'une trame, analysés à l'échelle d'un énoncé, et modélisés par un mélange de gaussiennes. Nous avons optimisé les performances de ce système en ajustant trois types de paramètres : le nombre de mélanges de gaussiennes, l'utilisation de coefficients MFCC d'ordre supérieur (20 versus 13 coefficients) et l'utilisation d'un modèle du monde (UBM) pour l'entraînement des modèles GMM. Le système a été entraîné et testé pour reconnaître les classes des émotions du corpus de données LDC Emotional Prosody (LDC). D'après les résultats obtenus, nous avons apporté une amélioration de l'ordre de 11% par rapport aux meilleurs résultats de l'état de l'art utilisant le même corpus de données pour l'expérience neutre vs tristesse alors que nous avons reproduit les meilleures performances pour l'expérience neutre vs colère et pour rexpérience avec 15 classes d'émotions. Notre seconde contribution est l'expérimentation d'un nouveau modèle de système de RAE basé sur l'information prosodique à long terme obtenue par une approximation des courbes de l'énergie et de la fréquence fondamentale par des coefficients de polynômes de Legendre sur une échelle d'analyse appelée pseudosyllabe. Afin de mesurer l'efficacité de ce type de trait à long terme et de l'unité d'analyse, nous avons réalisé une comparaison de performance entre ce système et un système exploitant l'information prosodique à court terme (niveau de trame) sur l'échelle d'un énoncé. Les taux de reconnaissance obtenus avec"un système basé sur la pseudosyllabe et les coefficients de polynômes de Legendre et expérimenté avec le corpus LDC, sont nettement supérieurs à ceux d'un système basé sur Vénoncé et l'information à court terme. Le gain relatif réalisé est de l'ordre de 6% pour la reconnaissance des émotions neutre vs colère, tandis que ce gain est de l'ordre 91% pour neutre vs tristesse. Enfin, nous avons obtenu une amélioration de l'ordre de 41% pour la détection de 15 classes d'émotions.
APA, Harvard, Vancouver, ISO, and other styles
8

Paleari, Marco. "Informatique Affective : Affichage, Reconnaissance, et Synthèse par Ordinateur des Émotions." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005615.

Full text
Abstract:
L'informatique Affective regarde la computation que se rapporte, surgit de, ou influence délibérément les émotions et trouve son domaine d'application naturel dans les interactions homme-machine a haut niveau d'abstraction. L'informatique affective peut être divisée en trois sujets principaux, à savoir: l'affichage,l'identification, et la synthèse. La construction d'une machine intelligente capable dinteragir'de façon naturelle avec son utilisateur passe forcement par ce trois phases. Dans cette thèse nous proposions une architecture basée principalement sur le modèle dite "Multimodal Affective User Interface" de Lisetti et la théorie psychologique des émotions nommé "Component Process Theory" de Scherer. Dans nos travaux nous avons donc recherché des techniques pour l'extraction automatique et en temps-réel des émotions par moyen des expressions faciales et de la prosodie vocale. Nous avons aussi traité les problématiques inhérentes la génération d'expressions sur de différentes plateformes, soit elles des agents virtuel ou robotique. Finalement, nous avons proposé et développé une architecture pour des agents intelligents capable de simuler le processus humaine d'évaluation des émotions comme décrit par Scherer.
APA, Harvard, Vancouver, ISO, and other styles
9

Paleari, Marco. "Computation affective : affichage, reconnaissance et synthèse par ordinateur des émotions." Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00005615.

Full text
Abstract:
L’informatique Affective regarde la computation que se rapporte, surgit de, ou influence délibérément les émotions et trouve son domaine d’application naturel dans les interactions homme-machine a haut niveau d’abstraction. L’informatique affective peut être divisée en trois sujets principaux, à savoir: l’affichage,l’identification, et la synthèse. La construction d’une machine intelligente capable dinteragir'de façon naturelle avec son utilisateur passe forcement par ce trois phases. Dans cette thèse nous proposions une architecture basée principalement sur le modèle dite “Multimodal Affective User Interface” de Lisetti et la théorie psychologique des émotions nommé “Component Process Theory” de Scherer. Dans nos travaux nous avons donc recherché des techniques pour l’extraction automatique et en temps-réel des émotions par moyen des expressions faciales et de la prosodie vocale. Nous avons aussi traité les problématiques inhérentes la génération d’expressions sur de différentes plateformes, soit elles des agents virtuel ou robotique. Finalement, nous avons proposé et développé une architecture pour des agents intelligents capable de simuler le processus humaine d’évaluation des émotions comme décrit par Scherer
Affective Computing refers to computing that relates to, arises from, or deliberately influences emotions and has is natural application domain in highly abstracted human--computer interactions. Affective computing can be divided into three main parts, namely display, recognition, and synthesis. The design of intelligent machines able to create natural interactions with the users necessarily implies the use of affective computing technologies. We propose a generic architecture based on the framework “Multimodal Affective User Interface” by Lisetti and the psychological “Component Process Theory” by Scherer which puts the user at the center of the loop exploiting these three parts of affective computing. We propose a novel system performing automatic, real-time, emotion recognition through the analysis of human facial expressions and vocal prosody. We also discuss about the generation of believable facial expressions for different platforms and we detail our system based on Scherer theory. Finally we propose an intelligent architecture that we have developed capable of simulating the process of appraisal of emotions as described by Scherer
APA, Harvard, Vancouver, ISO, and other styles
10

Vaudable, Christophe. "Analyse et reconnaissance des émotions lors de conversations de centres d'appels." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00758650.

Full text
Abstract:
La reconnaissance automatique des émotions dans la parole est un sujet de recherche relativement récent dans le domaine du traitement de la parole, puisqu'il est abordé depuis une dizaine d'années environs. Ce sujet fait de nos jours l'objet d'une grande attention, non seulement dans le monde académique mais aussi dans l'industrie, grâce à l'augmentation des performances et de la fiabilité des systèmes. Les premiers travaux étaient fondés sur des donnés jouées par des acteurs, et donc non spontanées. Même aujourd'hui, la plupart des études exploitent des séquences pré-segmentées d'un locuteur unique et non une communication spontanée entre plusieurs locuteurs. Cette méthodologie rend les travaux effectués difficilement généralisables pour des informations collectées de manière naturelle.Les travaux entrepris dans cette thèse se basent sur des conversations de centre d'appels, enregistrés en grande quantité et mettant en jeu au minimum 2 locuteurs humains (un client et un agent commercial) lors de chaque dialogue. Notre but est la détection, via l'expression émotionnelle, de la satisfaction client. Dans une première partie nous présentons les scores pouvant être obtenus sur nos données à partir de modèles se basant uniquement sur des indices acoustiques ou lexicaux. Nous montrons que pour obtenir des résultats satisfaisants une approche ne prenant en compte qu'un seul de ces types d'indices ne suffit pas. Nous proposons pour palier ce problème une étude sur la fusion d'indices de types acoustiques, lexicaux et syntaxico-sémantiques. Nous montrons que l'emploi de cette combinaison d'indices nous permet d'obtenir des gains par rapport aux modèles acoustiques même dans les cas ou nous nous basons sur une approche sans pré-traitements manuels (segmentation automatique des conversations, utilisation de transcriptions fournies par un système de reconnaissance de la parole). Dans une seconde partie nous remarquons que même si les modèles hybrides acoustiques/linguistiques nous permettent d'obtenir des gains intéressants la quantité de données utilisées dans nos modèles de détection est un problème lorsque nous testons nos méthodes sur des données nouvelles et très variées (49h issus de la base de données de conversations). Pour remédier à ce problème nous proposons une méthode d'enrichissement de notre corpus d'apprentissage. Nous sélectionnons ainsi, de manière automatique, de nouvelles données qui seront intégrées dans notre corpus d'apprentissage. Ces ajouts nous permettent de doubler la taille de notre ensemble d'apprentissage et d'obtenir des gains par rapport aux modèles de départ. Enfin, dans une dernière partie nous choisissons d'évaluées nos méthodes non plus sur des portions de dialogues comme cela est le cas dans la plupart des études, mais sur des conversations complètes. Nous utilisons pour cela les modèles issus des études précédentes (modèles issus de la fusion d'indices, des méthodes d'enrichissement automatique) et ajoutons 2 groupes d'indices supplémentaires : i) Des indices " structurels " prenant en compte des informations comme la durée de la conversation, le temps de parole de chaque type de locuteurs. ii) des indices " dialogiques " comprenant des informations comme le thème de la conversation ainsi qu'un nouveau concept que nous nommons " implication affective ". Celui-ci a pour but de modéliser l'impact de la production émotionnelle du locuteur courant sur le ou les autres participants de la conversation. Nous montrons que lorsque nous combinons l'ensemble de ces informations nous arrivons à obtenir des résultats proches de ceux d'un humain lorsqu'il s'agit de déterminer le caractère positif ou négatif d'une conversation
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Reconnaissance des émotions vocales"

1

Picard, Chantal Suzanne. La reconnaissance des émotions chez les enfants d'âge scolaire. Sudbury, Ont: Département de psychologie, Université Laurentienne, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rabouin-Coursol, Sylvie. La reconnaissance et l'intensité des émotions étudiées et analysées à la lumière d'une théorie de l'individualité liée à modulation de l'intensité d'un stimulus (MIS). Sudbury, Ont: Département de psychologie, Université Laurentienne, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Le juste et l'injuste: Émotions, reconnaissance et actions collectives. Paris: L'Harmattan, 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Reconnaissance des émotions vocales"

1

BEAUCOUSIN, Virginie. "Apprendre à reconnaître les autres : effet des émotions vocales." In Processus émotionnels en situation d’apprentissage, 189–216. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9042.ch7.

Full text
Abstract:
Ce chapitre se focalise sur la voix comme porteur d’information concernant l’identité et les émotions du locuteur. Il montre que les émotions vocales sont l’occasion d’apprentissage, car les informations véhiculées par la voix jouent un rôle important dans la mémorisation et la reconnaissance du locuteur. Ce processus, qui peut être altéré, permet des interactions interpersonnelles efficaces. Enfin, il souligne le phénomène facilitateur des émotions sur la reconnaissance d’autrui.
APA, Harvard, Vancouver, ISO, and other styles
2

Gosselin, Pierre. "La reconnaissance de I'expression faciale des émotions." In Cognition et émotions, 97–114. Imprensa da Universidade de Coimbra, 2004. http://dx.doi.org/10.14195/978-989-26-0805-1_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Gaudelus, Baptiste. "Gaïa : entraînement de la reconnaissance des émotions faciales." In Traité de Réhabilitation Psychosociale, 629–43. Elsevier, 2018. http://dx.doi.org/10.1016/b978-2-294-75915-4.00065-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Collignon, Amélie, Marine Thomasson, Arnaud Saj, Didier Grandjean, Frédéric Assal, and Julie Péron. "Cas 10. Reconnaissance de la prosodie émotionnelle suite à un accident vasculaire du cervelet." In 13 cas cliniques en neuropsychologie des émotions, 269–90. Dunod, 2018. http://dx.doi.org/10.3917/dunod.peron.2018.01.0269.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Duclos, Harmony, Béatrice Desgranges, and Mickael Laisney. "Cas 4. Reconnaissance des émotions et théorie de l’esprit affective chez un patient présentant une variante droite de démence sémantique." In 13 cas cliniques en neuropsychologie des émotions, 93–112. Dunod, 2018. http://dx.doi.org/10.3917/dunod.peron.2018.01.0093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography