Thèses sur le sujet « Compréhension automatique »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Compréhension automatique.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Compréhension automatique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Jamoussi, Selma. « Méthodes statistiques pour la compréhension automatique de la parole ». Nancy 1, 2004. http://www.theses.fr/2004NAN10170.

Texte intégral
Résumé :
Le travail présenté dans ce manuscrit vise à réaliser un système de compréhension de la parole spontanée spécifique à un domaine. Nous nous intéressons plus particulièrement à l'interrogation orale de bases de données. Dans notre travail, nous nous sommes basés sur une approche statistique qui considère que la compréhension est un processus de traduction de la parole en des concepts sémantiques. L'idée que nous défendons est qu'il est possible d'obtenir des concepts sémantiques significatifs par des méthodes de classification automatique. Pour ce faire, nous commençons par proposer des mesures permettant de quantifier les relations sémantiques entre mots. Ensuite, nous testons quelques méthodes de partionnement : l'algorithme des K-means et les cartes de Kohonen. Nous proposons également l'utilisation des réseaux neuronaux de Oja et Sanger. Enfin, nous utilisons le réseau bayésien AutoClass conçu pour la classification non supervisée et qui nous a fourni des concepts significatifs
The work presented in this manuscript aims to carry out an understanding system for the spontaneous speech. We are interested in specific domain systems that concern the oral interrogation of data bases. Our work is based on statistical approach which considers the understanding problem as a translation process between words and semantic concepts. The idea we defend in this thesis is the possibility to obtain significant semantic concepts using clustering methods. We start by defining some semantic measures to quantify the semantic relations between words. Then, we use triggers to build up concepts in an automatic way. In order to improve we test two well known methods : the K-means algorithm and the Kohonen maps. We also propose the use of the Oja and Sanger neural networks. The latter proved to be ineffective in our case. Lastly, we use a Bayesian network conceived for clustering and called AutoClass. AutoClass provides clear and significant concepts
Styles APA, Harvard, Vancouver, ISO, etc.
2

Brison, Eric. « Stratégies de compréhension dans l'interaction multimodale ». Toulouse 3, 1997. http://www.theses.fr/1997TOU30075.

Texte intégral
Résumé :
Dans le domaine des interfaces homme-machine, les interfaces multimodales qui utilisent plusieurs modalites d'entree comme la parole et le geste sont une reponse aux interfaces de demain grace a la souplesse d'interaction qu'elles pourraient offrir vis-a-vis de l'utilisateur. Un des problemes de ces interfaces est la comprehension et l'interpretation des enonces de l'utilisateur lorsque plusieurs modalites sont utilisees en parallele. Deux approches permettant de resoudre les problemes de references intermodales, tels que ceux de l'enonce mets ca ici accompagne de deux gestes de designation, sont decrites dans ce document. L'objectif de la premiere approche, provenant de l'ingenierie des interfaces, a consiste a identifier et a resoudre les problemes de references intermodales sans considerer la signification des enonces. Elle fait l'objet de la premiere partie de ce travail de recherche. La deuxieme methode de comprehension est fondee sur des methodes issues du langage naturel. Celle-ci permet d'integrer la resolution des references intermodales dans une methode de resolution plus generale autorisant egalement la resolution d'autres references linguistiques telles que les anaphores. Cette deuxieme approche est constituee d'une partie generique dans le processus de comprehension ce qui permet une portabilite vers d'autres applications. Enfin, pour evaluer les performances de la comprehension, une methode d'interpretation basee sur une reconnaissance semantique a ete elaboree dans le cadre d'une application de conception assistee par ordinateur. Cette interpretation basee sur un apprentissage semantique d'enonces induit une methode de specification des enonces multimodaux autorises.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Pham, Thi Nhung. « Résolution des anaphores nominales pour la compréhension automatique des textes ». Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD049/document.

Texte intégral
Résumé :
Toutes les informations présentes actuellement sur le web représentent une source d‘informations colossale, qui s‘enrichit de jour en jour. L‘analyse automatique de ces informations, qui sont plus souvent non-structurées, constitue un véritable enjeu économique et scientifique. La résolution des anaphores nominales s‘inscrit dans la structuration des informations grâce à l‘identification du lien entre des groupes nominaux, elle permet de simplifier des tâches à différentes applications : la traduction automatique, le résumé ou l‘extraction automatique d‘information, le data mining etc. Dans ce contexte, le travail que nous avons mené dans cette thèse évoque différentes méthodes de résolution des anaphores nominales de deux types : infidèles et associatives. En nous fondant sur divers aspects autours de la notion d‘anaphore nominale et des notions de voisinage comme la résolution d‘anaphores pronominales, la résolution de coréférences ; en combinant des méthodes existantes avec des outils et des ressources disponibles pour la langue française, notre travail s‘attache à trois modules : module de prétraitement du corpus, module de résolution des anaphores nominales et le module d‘évaluation. Au module de prétraitement, les ressources lexicales sont constituées et mobilisées grâces aux analyses au niveau linguistique des anaphores nominales. La plateforme Unitex est le principal outil utilisé à cette étape. Pour les anaphores du type infidèle, nous avons utilisé deux méthodes différentes : la première mobilise des ressources lexicales simples avec les entrées de groupes nominaux uniquement ; la deuxième mobilise des ressources plus élaborées (les entrées de groupes nominaux et verbaux). Pour les anaphores associatives du type méronymique, nous nous fondons sur la théorie des classes d‘objets afin de décrire le type de relation anaphorique établie Résumé 17 entre l‘expression anaphorique et son antécédent. Les ressources utilisées pour ce type d‘anaphore sont ainsi divisées hiérarchiquement selon les classes et les domaines. Le module de résolution est l‘étape de décision, nous nous basons sur le calcul du poids de saillance de chacun des antécédents potentiels pour sélectionner le meilleur candidat. Chaque candidat peut avoir différents facteurs de saillance, qui correspond à sa probabilité d'être sélectionné. Le poids de saillance final est calculé par le moyen pondéré des poids de saillance élémentaires. Les facteurs de saillances sont proposés après les analyses syntaxiques et sémantiques du corpus. L‘évaluation de notre travail constitue un vrai enjeu à cause de la complexité de la tâche, mais elle nous permet d‘avoir une vue globale sur nos méthodes de travail. La comparaison des résultats obtenus permet de visualiser l‘apport de chaque paramètre utilisé. L‘évaluation de notre travail nous permet également de voir les erreurs au niveau du prétraitement (l‘extraction des syntagmes nominaux, des syntagmes verbaux…), cela nous a permis d‘intégrer un module de correction dans notre système
In order to facilitate the interpretation of texts, this thesis is devoted to the development of a system to identify and resolve the indirect nominal anaphora and the associative anaphora. Resolution of the indirect nominal anaphora is based on calculating salience weights of candidate antecedents with the purpose of associating these antecedents with the anaphoric expressions identified. It is processed by twoAnnexe317different methods based on a linguistic approach: the first method uses lexical and morphological parameters; the second method uses morphological and syntactical parameters. The resolution of associative anaphora is based on syntactical and semantic parameters.The results obtained are encouraging: 90.6% for the indirect anaphora resolution with the first method, 75.7% for the indirect anaphora resolution with the second method and 68.7% for the associative anaphora resolution. These results show the contribution of each parameter used and the utility of this system in the automatic interpretation of the texts
Styles APA, Harvard, Vancouver, ISO, etc.
4

Goulian, Jerome. « Stratégie d'analyse détaillée pour la compréhension automatique robuste de la parole ». Lorient, 2002. http://www.theses.fr/2002LORIS021.

Texte intégral
Résumé :
Nous présentons une stratégie robuste d analyse des énonces oraux pour la compréhension hors-contexte de la parole en dialogue homme-machine finalisé. Nous faisons l'hypothese qu'une analyse détaillée des énoncés oraux (associant syntaxe et sémantique est essentielle au traitement correct des énonces et est la condition nécessaire au developpement d'applications non plus limitées a des cadres très finalisés mais faisant preuve d'une certaine généricité. Dans le système proposé ROMUS applique au renseignement touristique, une analyse syntaxique partielle de surface (cascades de transducteurs) permet tout dabord la segmentation de l'énonce en groupes minimaux élémentaires. Cette etape, générique, est motivée par la prise en compte explicite et intrinsèque des régularités observées dans les productions orales. Une analyse globale des dépendances sémantico-pragamatiques entre les segments (grammaires des liens) permet ensuite de déduire la représentation sémantique de l'énoncé
This PHD focusses on speech understanding in man-machine communication. We discuss the issue of how a speech understanding system can be made robust against spontaneous speech phenomena as well as achieving a detailed analysis of spoken French. We argue that a detailed linguistic analysis (with both syntax and semantics) is essential for correctly process spoken utterances and is also a necesary condition to develop applications that are not entirely dedicated to a very specific task but present sufficient genericity. The system presented (ROMUS) implements speech understanding in a two-satge process. The first one achieves a finite-state shallow parsing consists in segmenting the utterance into basic units (spoken adaptated chunks). This stage is generic and is motivated by the regularities observed in spoken French. The second one, a Link Grammar parser, looks for inter-chunks dependencies in order to build a rich representation of the semantic structure of the utterance
Styles APA, Harvard, Vancouver, ISO, etc.
5

Sileo, Damien. « Représentations sémantiques et discursives pour la compréhension automatique du langage naturel ». Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30201.

Texte intégral
Résumé :
Les modèles computationnels pour la compréhension automatique des textes ont suscité un vif intérêt en raison de gains de performances inhabituels au cours des dernières années, certains d'entre eux conduisant à des scores d'évaluation surhumains. Ce succès a conduit à affirmer la création de représentations universelles de phrases. Dans cette thèse, nous questionnons cette affirmation au travers de deux angles complémentaires. Premièrement, les réseaux de neurones et les représentations vectorielles sont-ils suffisamment expressifs pour traiter du texte de sorte à pouvoir effectuer un large éventail de tâches complexes ? Dans cette thèse, nous présenterons les modèles neuronaux actuellement utilisés et les techniques d'entraînement associées. Nous proposons des critères pour l'expressivité de composition des représentations vectorielles et montrons que la suite d'évaluations et les encodeurs de phrases très répandus (SentEval/InferSent) sont limités dans leur expressivité ; des changements mineurs peuvent permettre de nouvelles compositions expressives et interprétables, mais pourraient ne pas suffire, ce qui peut justifier le changement de paradigme vers de nouveaux modèles basés sur les Transformers. Deuxièmement, nous aborderons la question de l'universalité dans les représentation des phrases: que cachent en réalité ces prétentions à l'universalité ? Nous décrivons quelques théories de ce qu'est le sens d'une expression textuelle, et dans une partie ultérieure de cette thèse, nous soutenons que la sémantique (contenu littéral, non situé) par rapport à la pragmatique (la partie du sens d'un texte définie par son rôle et son contexte) est prépondérante dans les données d'entraînement et d'évaluation actuelles des modèles de compréhension du langage naturel. Pour atténuer ce problème, nous montrons que la prédiction de marqueurs de discours (classification de marqueurs de discours initialement présents entre des phrases) peut être considérée comme un signal d'apprentissage centré sur la pragmatique pour la compréhension de textes. Nous construisons un nouvel ensemble de données de prédiction de marqueurs de discours qui donne des résultats nettement supérieurs aux travaux précédents. Nous proposons également un nouvel outil d'évaluation de la compréhension du langage naturel en se basant sur le discours et la pragmatique. Cet outil pourrait inciter la communauté du traitement des langues à prendre en compte les considérations pragmatiques lors de l'évaluation de modèles de compréhension du langage naturel
Computational models for automatic text understanding have gained a lot of interest due to unusual performance gains over the last few years, some of them leading to super-human scores. This success reignited some grandeur claims about artificial intelligence, such as universal sentence representation. In this thesis, we question these claims through two complementary angles. Firstly, are neural networks and vector representations expressive enough to process text and perform a wide array of complex tasks? In this thesis, we will present currently used computational neural models and their training techniques. We propose a criterion for expressive compositions and show that a popular evaluation suite and sentence encoders (SentEval/InferSent) have an expressivity bottleneck; minor changes can yield new compositions that are expressive and insightful, but might not be sufficient, which may justify the paradigm shift towards newer Transformers-based models. Secondly, we will discuss the question of universality in sentence representation: what actually lies behind these universality claims? We delineate a few theories of meaning, and in a subsequent part of this thesis, we argue that semantics (unsituated, literal content) as opposed to pragmatics (meaning as use) is preponderant in the current training and evaluation data of natural language understanding models. To alleviate that problem, we show that discourse marker prediction (classification of hidden discourse markers between sentences) can be seen as a pragmatics-centered training signal for text understanding. We build a new discourse marker prediction dataset that yields significantly better results than previous work. In addition, we propose a new discourse-based evaluation suite that could incentivize researchers to take into account pragmatic considerations when evaluating text understanding models
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bueno, Steve. « L'activation automatique de la mémoire sémantique ». Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX10068.

Texte intégral
Résumé :
L'objectif de cette thèse était d'étudier sous différents angles d'approche le phénomène d'amorçage. Dans ce but, plusieurs facteurs, connus pour leur impact sur l'activation du lexique mental, ont été manipulés. Il s'agissait du délai de présentation de mots amorces, de la nature de la tâche expérimentale ainsi que des liens lexicaux entre les mots. Les experiences réalisées ont permis d'observer que l'activation du lexique pouvait rapidement être mise en place ( dès 43 ms) lorsque les mots partageaient un chevauchement sémantique important et non pas lorsqu'ils étaient associés. La nature de la tâche expérimentale était primordiale dans l'observation de cet effet puisqu'il a été démontré que la tâche de catégorisation sémantique permettait une activation des mots sémantiquement reliés à ce délai bref alors que la tâche de décision lexicale n'y parvenait pas. La tâche de décision lexicale est pourtant très répandue dans le cadre d'étude. Ceci nous a conduits à reconsidérer l'emploi massif de cette tâche dans l'étude des effets d'amorçage précoces. Néanmoins, la tâche de décision lexicale demeure un outil fiable que la tâche de catégorisation sémantique lorsqu'il s'agit d'étudier des délais d'activation plus longs (à partir de 71 ms). De plus nous avons opérer une nette distinction entre le matériel associatif et le matériel sémantique présents dans cette thèse afin de clairement délimiter la contribution de chacunn d'eux dans le phénomène d'amorçage. Ainsi il paraît que la relation sémantique est plus efficace que la relation associative dans l'observation des effets d'amorçage automatiques. Ces résultats sont en accord avec plusieurs modèles de l'organisation du lexique et/ou de l'amorçage, notamment le modèle de diffusion de l'activation, le modèle HAL (Burgess et collaborateurs) mais aussi les modèles connexionnistes tels que ceux de Plaut (1995) ou Cree,McRae, et McNorgan (1999).
Styles APA, Harvard, Vancouver, ISO, etc.
7

Mouret, Pascal. « Etude et intégration de contraintes contextuelles dans la compréhension automatique du français ». Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22044.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Delecraz, Sébastien. « Approches jointes texte/image pour la compréhension multimodale de documents ». Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634.

Texte intégral
Résumé :
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Styles APA, Harvard, Vancouver, ISO, etc.
9

Delecraz, Sébastien. « Approches jointes texte/image pour la compréhension multimodale de documents ». Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634/document.

Texte intégral
Résumé :
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Styles APA, Harvard, Vancouver, ISO, etc.
10

Camelin, Nathalie. « Stratégies robustes de compréhension de la parole basées sur des méthodes de classification automatique ». Avignon, 2007. http://www.theses.fr/2007AVIG0149.

Texte intégral
Résumé :
Cette thèse concerne le problème de la compréhension automatique de la parole dans des applications acceptant de la parole téléphonique spontanée multilocuteurs. L'étude consiste en l'intégration de méthodes de classification automatique dans les processus de décodage et de compréhension de la parole. Nos travaux portent sur l'adaptation de ces méthodes, ayant obtenu d'excellents résultats sur le langage écrit, aux particularités des sorties d'un système de reconnaissance automatique de parole. La principale difficulté de traitement de ce type de données réside dans le caractère incertain des paramètres d'entrée des classifieurs. Parmi toutes les méthodes de classification existantes, nous avons choisi d'en utiliser trois. La première est à base d'arbres de décisions sémantiques, les deux autres, considérées par la communauté scientifique de l'apprentissage automatique parmi les plus performantes, sont des méthodes de classification à large marge : le boosting et les machines à support vectoriel. Une méthode d'étiquetage de séquences, les champs conditionnels aléatoires, est également étudiée et utilisée. Deux cadres applicatifs sont abordés : -PlanResto, application touristique de dialogue oral homme-machine, permet aux utilisateurs de formuler en langage naturel une demande concernant un restaurant sur Paris. La compréhension effectuée en temps réel consiste en la construction d'une requête à une base de données. L'accord consensuel des différents classifieurs est utilisé en tant que mesure de confiance ; -SCOrange, corpus de sondage téléphonique, vise à collecter les messages des utilisateurs de mobile exprimant leur satisfaction vis à vis du service client. La compréhension effectuée off-line consiste à évaluer les proportions des différentes opinions exprimées selon un thème et une polarité. Les classifieurs permettent d'extraire les avis des utilisateurs dans une stratégie visant à évaluer de manière fiable les proportions des opinions ainsi que leur évolution
The work presented in this PhD thesis deals with the automatic Spoken Language Understanding (SLU) problem in multiple speaker applications which accept spontaneous speech. The study consists in integrating automatic classification methods in the speech decoding and understanding processes. My work consists in adapting methods, wich have already shown good performance in text domain, to the particularities of an Automatic Speech Recognition system outputs. The main difficulty of the process of this type of data is due to the uncertainty in the input parameters for the classifiers. Among all existing automatic classification methods, we choose to use three of them. The first is based on Semantic Classification Trees, the two others classification methods, considered among the most performant in the scientific community of machine learning, are large margin ones based on boosting and support vector machines. A sequence labelling method, Conditional Random Fields (CRF), is also studied and used. Two applicative frameworks are investigated : -PlanResto is a tourism application of human-computer dialogue. It enables users to ask information about a restaurant in Paris in natural language. The real-time speech understanding process consists in building a request for a database. Within this framework, the consensual agreement of the different classifiers, considered as semantic experts, is used as a confidence measure ; -SCOrange is a spoken telephone survey corpus. The purpose is to collect messages of mobile users expressing their opinion about the customer service. The off-line speech understanding process consists in evaluating proportions of opinions about a topic and a polarity. Classifiers enable the extraction of user's opinions in a strategy that can reliably evalute the distribution of opinions and their temporal evolution
Styles APA, Harvard, Vancouver, ISO, etc.
11

Veloz, Guerrero Arturo. « Un système de compréhension de parole continue sur microprocesseur ». Paris 11, 1985. http://www.theses.fr/1985PA112240.

Texte intégral
Résumé :
Cette thèse présente la réalisation d’un système de compréhension de parole continue sur une architecture informatique modeste. Elle concerne la compréhension de parole continue dans le cadre d’applications précises et des langages artificiels. Le système utilise dans un premier temps, la technique de reconnaissance analytique donnant comme résultat un treillis phonétique de la phrase prononcée. Ensuite, dans un deuxième temps, le système utilise un algorithme de programmation dynamique à une seule passe, guidée par la syntaxe du langage d’application, afin de retrouver la phrase immergée dans le treillis phonétique. Un outil d’aide de génération de données linguistiques a été ajouté au système, qui permet à l’utilisateur de déterminer la syntaxe de son langage d »application, les mots étant introduits sous leur forme graphémique. Cet outil travail alors phonétiquement chacun des mots du lexique en tenant compte de certaines variantes phonologiques, et traduit la représentation déclarative en un réseau d’états fini, adapté à l’algorithme de reconnaissance
This thesis describes the implementation of a speech understanding system on a microprocessor. The system is designed to accept continuous speech from one speaker and to work within the context of a limited task situation and small vocabularies. The system utilizes phonetic recognition at the phonetic level and an optimal one-pass dynamic programming algorithm at the lexical and syntactic levels. The system has an interactive program for the definition of grammars for a given specific task language and a program of orthographic-phonetic translation that takes into account some phonological variations of words
Styles APA, Harvard, Vancouver, ISO, etc.
12

Aguilar, Louche Nathalie. « La production automatique et délibérée des inférences de la conséquence des événements et des actions : expérimentations et simulations ». Université de Provence. Faculté des lettres et sciences humaines (1969-2011), 1999. http://www.theses.fr/1999AIX10047.

Texte intégral
Résumé :
Cette these est consacree a l'etude de la production automatique des inferences prospectives de la consequence fortement probable des evenements et des actions lors de la lecture. Schematiquement, selon les principales theories de la comprehension de texte, top down ou bottom up, ces inferences sont concues, soit comme la production d'une proposition nouvelle en memoire, soit comme la recuperation automatique d'une information en memoire associee a l'information explicitement presentee. Dans le but de tester ces hypotheses, huit experiences, dont quatre de decision lexicale, ont ete realisees et les resultats obtenus ont ete simules a l'aide du modele construction-integration (kintsch, 1988). Les deux premieres experimentations avaient pour but d'analyser les aspects temporels de la production automatique de ces inferences en precisant la duree minimale de traitement necessaire a leur production ainsi que la duree pendant laquelle elles restent activees. La manipulation de la duree de presentation pvsr et de la duree de l'isi permettent de conclure qu'une duree minimale de 250 ms de traitement est necessaire a la recuperation de l'information en memoire et que sa desactivation commence apres un delai de 50 ms. Les analyses a posteriori de ces resultats ont confirme la necessite d'etudier l'influence du degre d'association amorce-cible quand le degre d'association entre les mots de contenu, l'amorce et la cible est maintenu constant. Aussi, nous avons realise deux autres experiences dans lesquelles nous avons manipule le degre d'association amorce-cible et la nature de la modification decrite, intentionnelle ou pas. L'ensemble des resultats experimentaux obtenus ainsi que les simulations realisees est compatible avec l'hypothese selon laquelle l'inference de la consequence fortement probable d'une action ou d'un evenement consiste dans la recuperation en memoire d'une information semantique fortement associee a l'information explicitement presentee.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Doré, Laurent. « Intégration de récit : Application à la compréhension de textes médicaux ». Paris 13, 1992. http://www.theses.fr/1992PA132022.

Texte intégral
Résumé :
Alors que les techniques du traitement automatique du langage naturel (TALN) se sont beaucoup développées au niveau du traitement de la phase, peu de travaux ont été consacrés aux phénomènes textuels. Or, depuis les premiers travaux de l'école de Yale, de nombreux résultats linguistiques et psychologiques n'ont pas été exploités en ia, par exemple en ce qui concerne l'utilisation des phénomènes textuels de cohésion pour la construction d'une représentation cohérente du contenu de texte par rapport à la situation du discours. Nous décrivons dans cette thèse une expérience d'IA portant spécifiquement sur les aspects textuels du taln. Dans le cadre d'un projet de compréhension de textes descriptifs, narratifs et techniques, nous présentons un module d'intégration de récit permettant une compréhension fine de ces textes à partir résultats d'un analyseur syntaxico-semantique traitant des phrases hors contexte. L'objectif de notre étape de traitement est d'obtenir une compréhension globale du texte et non plus seulement de phrases isolées. Il nécessite qu'on interprète la signification des phrases en contexte et que l'on traite pour cela les problèmes spécifiques de l'intégration qui se posent : référence interphrastique et inférence pragmatique. Le processus d'intégration développé s'appuie sur un ensemble de connaissances extra-linguistiques issues du domaine et prend par ailleurs en compte les données textuelles qui assurent la cohésion du texte. Nous concluons ce mémoire sur la généralisation de notre approche et sa portabilité à d'autres domaines.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Servan, Christophe. « Apprentissage automatique et compréhension dans le cadre d'un dialogue homme-machine téléphonique à initiative mixte ». Phd thesis, Université d'Avignon, 2008. http://tel.archives-ouvertes.fr/tel-00591997.

Texte intégral
Résumé :
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d'avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s'agit, d'abord, de trouver la meilleure hypothèse de reconnaissance puis d'appliquer un processus de compréhension. L'approche proposée dans cette thèse est de conserver l'espace de recherche probabiliste tout au long du processus de compréhension en l'enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d'évaluation MEDIA. Nous montrons l'intérêt de notre approche par rapport à l'approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d'erreurs sur les mots (WER). Cependant nous montrons qu'une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu'une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d'évaluation que lors de la campagne MEDIA. Il s'agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d'évaluation. L'étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d'une part, le taux d'erreur d'interprétation et, d'autre part, le taux d'erreur mots de la reconnaissance de la parole, la taille du corpus d'apprentissage, ainsi que l'ajout de connaissance a priori aux modèles de compréhension. Une analyse d'erreurs montre l'intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d'utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s'appliquant sur la présence d'éléments déclencheurs (mots ou concepts) en fonction de l'historique. On présente les méthodes à base de d'apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d'apprentissage. En modifiant la taille du corpus d'apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l'apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l'apprentissage des modèles de langages conceptuels à partir de laquelle les scores d'évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l'apprentissage et la taille de corpus afin de valider le guide d'annotations. En effet, il semble, dans notre cas de l'évaluation MEDIA, qu'il ait fallu sensiblement le même nombre d'exemple pour, d'une part, valider l'annotation sémantique et, d'autre part, obtenir un modèle stochastique " de qualité " appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d'apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l'ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d'un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d'appel. La problématique de cette tâche est le manque de données d'apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l'intérêt d'intégrer une tâche de classification d'appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d'apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d'obtenir des taux de classification d'appels encourageants sur le corpus de test, alors que le WER est assez élevé. L'application des méthodes développées lors de la campagne MEDIA nous permet d'améliorer la robustesse du processus de routage d'appels.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Nazarenko, Adeline. « Compréhension du langage naturel : le problème de la causalité ». Paris 13, 1994. http://www.theses.fr/1994PA132007.

Texte intégral
Résumé :
Cette thèse porte sur la compréhension de textes écrits en langage naturel. Elle s'intéresse au problème de la causalité dans le cadre d'un système de question/réponse: il s'agit de répondre automatiquement aux questions pourquoi?. Ce travail distingue deux phases dans le processus de compréhension. On construit d'abord une représentation sémantique du texte, sous la forme de graphes conceptuels. Cette représentation est ensuite exploitée par le module de question/réponse qui extrait ou calcule l'information pertinente en regard de la question posée. Pour construire la représentation de la phrase, on utilise les graphes de définition donnés par un lexique sémantique. Les connecteurs (parce que, puisque, car, donc. . . ), qui jouent un rôle fondamental dans l'expression de la causalité, sont définis avec précision dans ce lexique. L'analyse sémantique combine ensuite ces définitions pour construire le graphe de la phrase. On montre que la structure de celle-ci, ses éventuelles ambigui͏̈tés et les phénomènes énonciatifs, essentiels dans la compréhension de la causalité, sont représentables dans les graphes et que la construction de ces graphes obéit à des principes réguliers, linguistiquement fondés. Le système exploite ces représentations sémantiques pour répondre aux questions causales. Différentes stratégies sont mises en oeuvre, selon que l'information causale est plus ou moins accessible. Lorsque la représentation sémantique contient une relation cause, des opérations d'extraction y accèdent à travers les structures enchâssées et les contextes. Si l'information causale est moins explicite, d'autres stratégies sont appelées. On peut simuler le processus naturel d'interprétation qui tend à lire causalement certaines relations conceptuelles ou discursives (relations temporelles, coordination,. . . ). On peut également faire des inférences. L'étude des relations causales montre en effet qu'elles ne constituent pas des faits mais des lectures de la réalité. En simulant ce processus d'interprétation, on peut donc construire des informations causales à partir de données non causales
Styles APA, Harvard, Vancouver, ISO, etc.
16

Demko, Christophe. « Contribution à la gestion du contexte pour un système de compréhension automatique de la langue ». Compiègne, 1992. http://www.theses.fr/1992COMPD542.

Texte intégral
Résumé :
La polysémie est peut-être l'un des plus sérieux problèmes auxquels sont confrontés les chercheurs en traitement automatique de la langue. Lors de la compréhension d'un texte, il est nécessaire de disposer d'informations extra-textuelles. Ces informations se rapprochent des données encyclopédiques et représentent les connaissances globales d'un individu sur le monde. De nombreuses théories ont proposé des structures de données permettant de les représenter formellement. La théorie des graphes conceptuels unifie et généralise un nombre important des méthodes utilisées pour représenter le sens. L'objet du travail a donc été de rendre opérationnelle cette théorie et de l'utiliser pour la levée d'ambiguïté. Nous avons introduit pour cela une représentation des connaissances sous la forme d'hypergraphes. Nous montrons que les opérations de base sur les graphes conceptuels découlent d'une opération d'intersection maximale entre deux hypergraphes. Aussi nous sommes nous attachés à définir un algorithme optimisé pour la calculer. Dans notre méthode de levée d'ambiguïté, les sens du texte à analyser, ainsi que les contextes liés au domaine, sont représentés sous la forme d'hypergraphes conceptuels. La levée d'ambiguïté consiste à trouver la paire sens-contexte pour laquelle un coefficient de recouvrement, que nous avons défini, est optimal. Nous proposons également un apprentissage automatique de contextes à l'aide de l'analyse de plusieurs textes. L'apprentissage procède en généralisant et en vérifiant les connaissances contenues dans les différents contextes. Les méthodes présentées sont encourageantes et laissent entrevoir de nombreuses applications quant à la reconnaissance des formes en général et à la levée d'ambiguïté en particulier. En effet, la plupart des représentations choisies à l'heure actuelle pour représenter les connaissances sont essentiellement basées sur la théorie des graphes. Nos algorithmes, bien que développés pour les graphes conceptuels, peuvent aussi s'appliquer à des domaines beaucoup plus variés et restent assez généraux pour permettre de résoudre d'autres problèmes.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Kobus, Catherine. « Exploitation d'informations d'ordre sémantique pour la reconnaissance vocale dans le contexte d'une application de compréhension de la parole ». Avignon, 2006. http://www.theses.fr/2006AVIG0141.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
18

Diakité, Mohamed Lamine. « Relations entre les phrases : contribution à la représentation sémantique des textes pour la compréhension automatique du langage naturel ». Dijon, 2005. http://www.theses.fr/2005DIJOS025.

Texte intégral
Résumé :
Le travail décrit dans cette thèse présente une approche de représentation sémantique des textes pour contribuer à une compréhension automatique du langage naturel. L'approche que nous avons proposée est fondée sur le constat de la nécessité de disposer des connaissances sur les textes analysés pour pouvoir dégager leur sens. Nous avons donc proposé une approche d'acquisition semi-automatique de connaissances à partir des textes. L'acquisition de ces connaissances est guidée par une hiérarchie de classes d'entités organisées dans une ontologie. En nous appuyant également sur le principe de la sémantique compositionnelle, nous avons proposé d'identifier les relations entre les différentes entités du texte. Nous nous sommes notamment intéressés au problème d'anaphores pronominales pour lequel nous avons proposé une méthode de résolution
The work described in this thesis presents an approach of semantic representation of texts to contribute to an automatic comprehension of the natural language. The proposed approach is based on the evidence of the need for knowledge on the analyzed texts in order to discover their meaning. We thus proposed a semi-automatic approach of knowledge acquisition from texts. This acquisition is guided by a hierarchy of classes of entities organized in an ontology. Based on the principle of compositional semantic, we propose to identify relations between different entities of the text. We were interested in particular in the problem of pronominal anaphora for which we proposed a resolution method
Styles APA, Harvard, Vancouver, ISO, etc.
19

Laurent, Antoine. « Auto-adaptation et reconnaissance automatique de la parole ». Le Mans, 2010. http://cyberdoc.univ-lemans.fr/theses/2010/2010LEMA1009.pdf.

Texte intégral
Résumé :
La première partie de cette thèse présente une méthode d’assistance à la transcription automatique de la parole. Le transcripteur humain dispose de la meilleure hypothèse fournie par le SRAP, et, à chaque correction de sa part, le système propose une nouvelle hypothèse prenant en compte cette correction. Cette dernière est obtenue à partir d’une réévaluation des réseaux de confusion générés par le SRAP. L’utilisation de la méthode de réordonnancement permet d’observer un gain absolu de 3,4% (19,2% à 15,8%) en terme de nombre de mots à corriger (WSR) sur le corpus ESTER 2. Afin de diminuer le taux d’erreur sur les noms propres, une méthode de phonétisation itérative utilisant les données acoustiques à disposition est proposée dans ce manuscrit. L’utilisation de SMT [Laurent 2009] couplée avec la méthode de phonétisation proposée permet d'observer des gains en terme de taux d'erreur mot (WER) et en terme de taux d'erreur noms propres (PNER)
The first part of this thesis presents a computer assisted transcription of speech method. Every time the user corrects a word in the automatic transcription, this correction is immediately taken into account to re-evaluate the transcription of the words following it. The latter is obtained from a reordering of the confusion networks hypothesis generated by the ASR. The use of the reordering method allows an absolute gain of 3. 4 points (19. 2% to 15. 8%) in term of word stroke ratio (WSR) on the ESTER 2 corpus. In order to decrease the proper nouns error rate, an acoustic-based phonetic transcription method is proposed in this manuscript. The use of SMT [Laurent 2009] associated with the proposed method allows a significant reduce in term of word error rate (WER) and in term of proper nouns error rate (PNER)
Styles APA, Harvard, Vancouver, ISO, etc.
20

Raymond, Christian. « Décodage conceptuel : co-articulation des processus de transcription et compréhension dans les systèmes de dialogue ». Avignon, 2005. http://www.theses.fr/2005AVIG0140.

Texte intégral
Résumé :
Dans les systèmes de dialogue oral homme-machine, le processus de compréhension consiste à construire une représentation sémantique à partir d'unités sémantiques élémentaires appelées concepts. L'extraction de ces concepts se fait à partir d'une transcription du signal obtenue par un module de reconnaissance de la parole (RAP). Dans cette architecture, la qualité de l'interprétation sémantique est très dépendante de la qualité du processus de RAP. Alternativement à cette approche, nous proposons un modèle basé sur le formalisme des transducteurs à états fini qui met en relation les mots avec les concepts qu'ils représentent. Il permet d'enrichir conceptuellement un graphe de mots. En considérant une interprétation comme étant une séquence de concepts, le processus de décodage proposé fournit une liste structurée des N-meilleures hypothèses d'interprétation de l'énoncé. Cette liste propose en quelques hypothèses, un résumé du graphe de mots, exhaustif et non-redondant du point de vue de la compréhension. Afin de pallier les inévitables erreurs du processus de reconnaissance, nous présentons des mesures de confiance pour diagnostiquer la qualité d'une interprétation. Elles sont basées sur des connaissances acoustiques, linguistiques et sémantiques et opèrent sur différents niveaux: mot,concept, phrase. Ensuite, nous proposons une stratégie d'aide à la décision pour le gestionnaire de dialogue. Cette stratégie s'appuie sur des unités de décision prenant en entrée la liste structurée et les mesures de confiance. En sortie, à chaque hypothèse est associée un état de fiabilité. Selon l'état et ses caractéristiques, des stratégies de correction d'erreurs adaptées sont proposées
We propose in this document a SLU (Spoken Language Understanding) module. First we introduce a conceptual language model for the detection and the extraction of semantic basic concepts from a speech signal. A decoding process is described with a simple example. This decoding process extracts, from a word lattice generated by an Automatic Speech Recognition (ASR) module, structured n-best list of interpretations (set of concepts). This list contains all the interpretations that can be found in the word lattice, with their posterior probabilities, and the n-best values for each interpretation. Then we introduce some confidence measures used to estimate the quality of the result of the previous decoding process. Finally, we describe the integration of the proposed SLU module in a dialogue application, involving a decision strategy based on the confidence measures introduced before
Styles APA, Harvard, Vancouver, ISO, etc.
21

Gotab, Pierre. « Classification automatique pour la compréhension de la parole : vers des systèmes semi-supervisés et auto-évolutifs ». Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00858980.

Texte intégral
Résumé :
La compréhension automatique de la parole est au confluent des deux grands domaines que sont la reconnaissance automatique de la parole et l'apprentissage automatique. Un des problèmes majeurs dans ce domaine est l'obtention d'un corpus de données conséquent afin d'obtenir des modèles statistiques performants. Les corpus de parole pour entraîner des modèles de compréhension nécessitent une intervention humaine importante, notamment dans les tâches de transcription et d'annotation sémantique. Leur coût de production est élevé et c'est la raison pour laquelle ils sont disponibles en quantité limitée.Cette thèse vise principalement à réduire ce besoin d'intervention humaine de deux façons : d'une part en réduisant la quantité de corpus annoté nécessaire à l'obtention d'un modèle grâce à des techniques d'apprentissage semi-supervisé (Self-Training, Co-Training et Active-Learning) ; et d'autre part en tirant parti des réponses de l'utilisateur du système pour améliorer le modèle de compréhension.Ce dernier point touche à un second problème rencontré par les systèmes de compréhension automatique de la parole et adressé par cette thèse : le besoin d'adapter régulièrement leurs modèles aux variations de comportement des utilisateurs ou aux modifications de l'offre de services du système
Styles APA, Harvard, Vancouver, ISO, etc.
22

Krit, Hatem. « Locadelane : un langage objet d'aide à la compréhension automatique du discours exprimé en langage naturel et écri ». Toulouse 3, 1990. http://www.theses.fr/1990TOU30008.

Texte intégral
Résumé :
Cette these se presente comme une contribution a l'etude de la modelisation objet dans le domaine de la comprehension automatique du langage naturel et ecrit. Son objectif est de definir un langage objet qui offre un formalisme de representation et de manipulation des connaissances du domaine favorisant la coherence, la modularite, l'unicite, la combinaison du procedural et du declaratif, la souplesse des modules dans l'architecture du systeme, et l'interaction des taches en parallele. Ce langage, intitule locadelane, a ete ecrit au-dessus du langage c sous un environnement unix, et il est operationnel sur un sm90. Le premier chapitre presente une synthese des recherches dans le domaine du traitement automatique du langage naturel. Le deuxieme chapitre donne les concepts de base et l'apport de la programmation orientee objet dans differents domaines de l'informatique. Le troisieme chapitre decrit le modele sur lequel locadelane a ete construit. Les concepts de locadelane sont presentes dans le quatrieme chapitre, et sa mise en uvre est discutee dans le cinquieme chapitre. Dans le sixieme chapitre, nous presentons l'application de locadelane a la comprehension automatique de recits au travers de quelques exemples de fables de la fontaine. Enfin, en guise de conclusion, nous formulons des propositions d'extensions des concepts locadelane afin d'appliquer ce langage a une plus large classe de problemes
Styles APA, Harvard, Vancouver, ISO, etc.
23

Desot, Thierry. « Apport des modèles neuronaux de bout-en-bout pour la compréhension automatique de la parole dans l'habitat intelligent ». Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM069.

Texte intégral
Résumé :
Les enceintes intelligentes offrent la possibilité d’interagir avec les systèmes informatiques de la maison. Elles permettent d’émettre un éventail de requêtes sur des sujets divers et représentent les premières interfaces vocales disponibles couramment dans les environnements domestiques. La compréhension des commandes vocales concerne des énoncés courts ayant une syntaxe simple, dans le domaine des habitats intelligents destinés à favoriser le maintien à domicile des personnes âgées. Ils les assistent dans leur vie quotidienne, améliorant ainsi leur qualité de vie, mais peuvent aussi leur porter assistance en situations de détresse. La conception de ces habitats se concentre surtout sur les aspects de la sécurité et du confort, ciblant fréquemment sur la détection de l’activité humaine. L’aspect communication est moins pris en compte, c’est pourquoi il existe peu de corpus de parole spécifiques au domaine domotique, en particulier pour des langues autres que l’anglais, alorsqu’ils sont essentiels pour développer les systèmes de communication entre l’habitat et ses habitants. La disponibilité de tels corpus, pourrait contribuer au développement d’une génération d’enceintes intelligentes qui soient capables d’extraire des commandes vocales plus complexes. Pour contourner une telle contrainte, une partie de notre travail consiste à développer un générateur de corpus, produisant des commandes vocales spécifiques au domaine domotique, automatiquement annotées d’étiquettes d’intentions et de concepts. Un système de compréhension de la parole (SLU - Spoken Language Understanding) est nécessaire afin d’extraire les intentions et les concepts des commandes vocales avant de les fournir au module de prise de décision en charge de l’exécution des commandes. De manière classique, un module de compréhension du langage naturel (NLU - Natural Language Understanding) est précédé par un module de reconnaissance automatique de la parole (RAP), convertissant automatiquement la parole en transcriptions. Comme plusieurs études l’ont montré, l’enchaînement entre RAP et NLU dans une approche séquentielle de SLU cumule les erreurs. Par conséquent, l’une des motivations principales de nos travaux est le développement d’un module de SLU de bout en bout (End-to-End) visant à extraire les concepts et les intentions directement de la parole. À cette fin, nous élaborons d’abord une approche SLU séquentielle comme approche de référence, dans laquelle une méthode classique de RAP génère des transcriptions qui sont transmises au module NLU, avant de poursuivre par le développement d’un module de SLU de bout en bout. Ces deux systèmes de SLU sont évalués sur un corpus enregistré spécifiquement au domaine de la domotique. Nous étudions si l’information prosodique, à laquelle la SLU de bout en bout a accès, contribue à augmenter les performances. Nous comparons aussi la robustesse des deux approches lorsqu’elles sont confrontées à un style de parole aux niveaux sémantiques et syntaxiques plus varié.Cette étude est menée dans le cadre du projet VocADom financé par l’appel à projets génériques de l’ANR
Smart speakers offer the possibility of interacting with smart home systems, and make it possible to issue a range of requests about various subjects. They represent the first ambient voice interfaces that are frequently available in home environments. Very often they are only capable of inferring voice commands of a simple syntax in short utterances in the realm of smart homes that promote home care for senior adults. They support them during everyday situations by improving their quality of life, and also providing assistance in situations of distress. The design of these smart homes mainly focuses on the safety and comfort of its habitants. As a result, these research projects frequently concentrate on human activity detection, resulting in a lack of attention for the communicative aspects in a smart home design. Consequently, there are insufficient speech corpora, specific to the home automation field, in particular for languages other than English. However the availability of these corpora are crucial for developing interactive communication systems between the smart home and its inhabitants. Such corpora at one’s disposal could also contribute to the development of a generation of smart speakers capable of extracting more complex voice commands. As a consequence, part of our work consisted in developing a corpus generator, producing home automation domain specific voice commands, automatically annotated with intent and concept labels. The extraction of intents and concepts from these commands, by a Spoken Language Understanding (SLU) system is necessary to provide the decision-making module with the information, necessary for their execution. In order to react to speech, the natural language understanding (NLU) module is typically preceded by an automatic speech recognition (ASR) module, automatically converting speech into transcriptions. As several studies have shown, the interaction between ASR and NLU in a sequential SLU approach accumulates errors. Therefore, one of the main motivations of our work is the development of an end-to-end SLU module, extracting concepts and intents directly from speech. To achieve this goal, we first develop a sequential SLU approach as our baseline approach, in which a classic ASR method generates transcriptions that are passed to the NLU module, before continuing with the development of an End-to-end SLU module. These two SLU systems were evaluated on a corpus recorded in the home automation domain. We investigate whether the prosodic information that the end-to-end SLU system has access to, contributes to SLU performance. We position the two approaches also by comparing their robustness, facing speech with more semantic and syntactic variation.The context of this thesis is the ANR VocADom project
Styles APA, Harvard, Vancouver, ISO, etc.
24

Veilex, Florence. « Approche expérimentale des processus humains de compréhension en vue d'une indexation automatique des résumés scientifiques : application à un corpus de géologie ». Grenoble 2, 1985. http://www.theses.fr/1985GRE2A005.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Le, Tallec Marc. « Compréhension de parole et détection des émotions pour robot compagnon ». Thesis, Tours, 2012. http://www.theses.fr/2012TOUR4044.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Arias, Aguilar José Anibal. « Méthodes spectrales pour le traitement automatique de documents audio ». Toulouse 3, 2008. http://thesesups.ups-tlse.fr/436/.

Texte intégral
Résumé :
Les disfluences sont un phénomène apparaissant fréquemment dans toute production orale spontanée ; elles consistent en l'interruption du cours normal du discours. Elles ont donné lieu à de nombreuses études en Traitement Automatique du Langage Naturel. En effet, leur étude et leur identification précise sont primordiales, sur les plans théorique et applicatif. Cependant, la majorité des travaux de recherche sur le sujet portent sur des usages de langage quotidien : dialogues " à bâtons rompus ", demandes d'horaire, discours, etc. Mais qu'en est-il des productions orales spontanées produites dans un cadre contraint ? Aucune étude n'a à notre connaissance été menée dans ce contexte. Or, on sait que l'utilisation d'une " langue de spécialité " dans le cadre d'une tâche donnée entraîne des comportements spécifiques. Notre travail de thèse est consacré à l'étude linguistique et informatique des disfluences dans un tel cadre. Il s'agit de dialogues de contrôle de trafic aérien, aux contraintes pragmatiques et linguistiques. Nous effectuons une étude exhaustive des phénomènes de disfluences dans ce contexte. Dans un premier temps nous procédons à l'analyse fine de ces phénomènes. Ensuite, nous les modélisons à un niveau de représentation abstrait, ce qui nous permet d'obtenir les patrons correspondant aux différentes configurations observées. Enfin nous proposons une méthodologie de traitement automatique. Celle-ci consiste en plusieurs algorithmes pour identifier les différents phénomènes, même en l'absence de marqueurs explicites. Elle est intégrée dans un système de traitement automatique de la parole. Enfin, la méthodologie est validée sur un corpus de 400 énoncés
The disfluencies are a frequently occurring phenomenon in any spontaneous speech production; it consists of the interruption of the normal flow of speech. They have given rise to numerous studies in Natural Language Processing. Indeed, their study and precise identification are essential, both from a theoretical and applicative perspective. However, most of the researches about the subject relate to everyday uses of language: "small talk" dialogs, requests for schedule, speeches, etc. But what about spontaneous speech production made in a restrained framework? To our knowledge, no study has ever been carried out in this context. However, we know that using a "language specialty" in the framework of a given task leads to specific behaviours. Our thesis work is devoted to the linguistic and computational study of disfluencies within such a framework. These dialogs concern air traffic control, which entails both pragmatic and linguistic constraints. We carry out an exhaustive study of disfluencies phenomena in this context. At first we conduct a subtle analysis of these phenomena. Then we model them to a level of abstraction, which allows us to obtain the patterns corresponding to the different configurations observed. Finally we propose a methodology for automatic processing. It consists of several algorithms to identify the different phenomena, even in the absence of explicit markers. It is integrated into a system of automatic processing of speech. Eventually, the methodology is validated on a corpus of 400 sentences
Styles APA, Harvard, Vancouver, ISO, etc.
27

Lemaçon, Audrey. « Développement d'outils bioinformatiques et de méthodologies d'apprentissage machine pour une meilleure compréhension des éléments génétiques sous-jacents à la susceptibilité au cancer du sein ». Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35418.

Texte intégral
Résumé :
Le cancer du sein est l'une des principales causes de décès par cancer chez les Canadiennes (1 sur 8 le développera au cours de sa vie et 1 sur 31 en décédera). Les études suggèrent que la majorité des cancers du sein se développent dans une faible portion de femmes ayant une susceptibilité génétique à la maladie. L'évaluation personnalisée de ce risque étant basée sur la conviction que la population peut se diviser en plusieurs groupes selon le risque génétique individuel inhérent, il est indispensable d'identier les acteurs responsables de cette susceptibilit é génétique pour pouvoir offrir, à ces femmes à risque, des mesures préventives adaptées à leur risque. Ainsi, depuis la découverte des gènes associés au cancer du sein, BRCA1 en 1994 et BRCA2 en 1995, d'énormes efforts ont été fournis an d'identier les éléments génétiques sous-jacents au risque du cancer du sein et de nombreuses autres mutations délétères ont été découvertes dans des gènes de susceptibilité tels que PTEN, PALB2 ou CHEK2. Malheureusement, malgr é les efforts engagés dans cette recherche, les gènes/loci de susceptibilité connus à ce jour n'expliquent qu'environ la moitié du risque génétique liée à cette maladie. Conscients des enjeux, de nombreux groupes d'études internationaux se sont associés en consortiums tels que le Breast Cancer Association Consortium (BCAC) ou le Consortium of Investigators of Modi ers of BRCA1/2 (CIMBA), an d'unir leur ressources pour l'identication de ce qu'on a appelé "l'héritabilité manquante" du cancer du sein. Plusieurs hypothèses ont été formulées quant aux sources de cette héritabilité manquante et, parmi ces hypothèses, nous en avons exploré deux. Dans un premier temps, nous avons testé l'hypothèse selon laquelle il resterait de nombreux variants génétiques communs de faible pénétrance à découvrir à travers une vaste étude d'association pangénomique réalisée dans le cadre de l'OncoArray Network. Dans un second temps, nous avons testé l'hypothèse selon laquelle des variants, plus rares mais de pénétrance plus forte, seraient à découvrir dans les régions codantes du génome, à travers l'évaluation du potentiel prédictif de ces variants via une approche innovante d'analyse de données d'exomes. Ainsi, nous avons pu démontrer la véracité de la première hypothèse par la découverte de 65 nouveaux locus associés à la susceptibilité au cancer du sein global. De plus, ces travaux ayant mis en lumière des besoins en terme d'assistance à l'analyse des signaux d'association, nous avons développé deux outils d'aide à la priorisation des variants génétiques humains. Enn, la seconde hypothèse a été testée à travers le développement d'une nouvelle méthodologie multi-étapes, combinant l'analyse de génotypes et d'haplotypes. Cette approche, mettant à prot la puissance de l'apprentissage machine, a permis d'identier des nouveaux marqueurs (variants individuels ou combinés dans des haplotypes) codants potentiellement associés au phénotype. Pour les locus de susceptibilité comme pour les gènes candidats identiés lors de l'analyse des données d'exomes, il sera indispensable de conrmer leur implication ainsi que l'ampleur de leurs effets sur des cohortes externes de grande taille et puis procéder à leur caractérisation fonctionnelle. Si ces derniers sont validés, ils pourront alors être intégrés aux outils actuels de prédiction du risque du cancer du sein et favoriser ainsi une prise en charge précoce et la prescription d'interventions thérapeutiques mieux adaptées pour les femmes à risque.
Breast cancer is one of the leading causes of death from cancer among Canadian women (about 1 in 8 Canadian women will develop breast cancer during her lifetime and 1 in 31 will die from the disease). Evidence suggests that most breast cancer cases develop in a small proportion of women with a genetic susceptibility to the disease. Since the personalized assessment of this risk is based on the certainty that women can be divided into several groups according to their inherent genetic risk, it is essential to identify the actors responsible for this genetic susceptibility to breast cancer in order to offer these at-risk women, personalized preventive measures. Thus, since the discovery of the associated genes BRCA1 in 1994 and BRCA2 in 1995, tremendous efforts have been made to identify the genetic components underlying breast cancer risk and many other deleterious mutations have been uncovered in susceptibility genes such as PTEN, PALB2 or CHEK2. Unfortunately, despite these efforts, the susceptibility genes/loci known to date only explain about half of the genetic risk associated with this disease. Acknowledging the challenges, many international groups have partnered in consortia such as the Breast Cancer Consortium (BCAC) or the Consortium of Investigators of Modiers of BRCA1/2 (CIMBA) to join their resources for the identication of what has been called breast cancer "missing heritability". Several hypotheses have been formulated as to the sources of this missing heritability and, among these hypotheses, we have explored two. First, we tested the hypothesis of many common low penetrance genetic variants still to be discovered through a large genome-wide association study conducted within the OncoArray Network. In a second step, we tested the hypothesis according to which rarer variants of higher penetrance, could be discovered in the coding regions of the genome, through the evaluation of the predictive power of these variants by an innovative approach of exomes data analysis. Thus, we were able to demonstrate the veracity of the rst hypothesis by the discovery of 65 new loci associated with overall breast cancer susceptibility. In addition, these studies having highlighted the need for assistance tools for prioritization analysis, we developed two softwares to help prioritize human genetic variants. Finally, we developed a new multi-step methodology, combining the analysis of genotypes and haplotypes in order to assess the predictive power of coding variants. This approach, taking advantage of the power of machine learning, enabled the identication of new credible coding markers (variants alone or combined into haplotypes), signicantly associated with the phenotype. For susceptibility loci as well as for candidate genes identied during the analysis of exome data, it will be essential to conrm their involvement and effect size on large external sample sets and then perform their functional characterization. If they are validated, their integration into current risk prediction tools could help promote early management and well-calibrated therapeutic interventions for at-risk women.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Laurent, Mario. « Recherche et développement du Logiciel Intelligent de Cartographie Inversée, pour l’aide à la compréhension de texte par un public dyslexique ». Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAL016/document.

Texte intégral
Résumé :
Les enfants souffrant de troubles du langage, comme la dyslexie, rencontrent de grandes difficultés dans l'apprentissage de la lecture et dans toute tâche de lecture, par la suite. Ces difficultés compromettent grandement l'accès au sens des textes auxquels ils sont confrontés durant leur scolarité, ce qui implique des difficultés d'apprentissage et les entraîne souvent vers une situation d'échec scolaire. Depuis une quinzaine d'années, des outils développés dans le domaine du Traitement Automatique des Langues sont détournés pour être utilisés comme stratégie d'aide et de compensation pour les élèves en difficultés. Parallèlement, l'usage de cartes conceptuelles ou de cartes heuristiques pour aider les enfants dyslexiques à formuler leurs pensées, ou à retenir certaines connaissances, s'est développé. Ce travail de thèse vise à répertorier et croiser, d'une part, les connaissances sur le public dyslexique, sa prise en charge et ses difficultés, d'autre part, les possibilités pédagogiques ouvertes par l'usage de cartes, et enfin, les technologies de résumé automatique et d'extraction de mots-clés. L'objectif est de réaliser un logiciel novateur capable de transformer automatiquement un texte donné en une carte, celle-ci doit faciliter la compréhension du texte tout en comprenant des fonctionnalités adaptées à un public d'adolescents dyslexiques. Ce projet a abouti, premièrement, à la réalisation d'une expérimentation exploratoire, sur l'aide à la compréhension de texte grâce aux cartes heuristiques, qui permet de définir de nouveaux axes de recherche ; deuxièmement, à la réalisation d'un prototype de logiciel de cartographie automatique qui est présenté en fin de thèse
Children with language impairment, such as dyslexia, are often faced with important difficulties when learning to read and during any subsequent reading tasks. These difficulties tend to compromise the understanding of the texts they must read during their time at school. This implies learning difficulties and may lead to academic failure. Over the past fifteen years, general tools developed in the field of Natural Language Processing have been transformed into specific tools for that help with and compensate for language impaired students' difficulties. At the same time, the use of concept maps or heuristic maps to encourage dyslexic children express their thoughts, or retain certain knowledge, has become popular. This thesis aims to identify and explore knowledge about the dyslexic public, how society takes care of them and what difficulties they face; the pedagogical possibilities opened up by the use of maps; and the opportunities created by automatic summarization and Information Retrieval fields. The aim of this doctoral research project was to create an innovative piece of software that automatically transforms a given text into a map. It was important that this piece of software facilitate reading comprehension while including functionalities that are adapted to dyslexic teenagers. The project involved carrying out an exploratory experiment on reading comprehension aid, thanks to heuristic maps, that make the identification of new research topics possible, and implementing an automatic mapping software prototype that is presented at the end of this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
29

Meurs, Marie-Jean. « Approche stochastique bayésienne de la composition sémantique pour les modules de compréhension automatique de la parole dans les systèmes de dialogue homme-machine ». Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00634269.

Texte intégral
Résumé :
Les systèmes de dialogue homme-machine ont pour objectif de permettre un échange oral efficace et convivial entre un utilisateur humain et un ordinateur. Leurs domaines d'applications sont variés, depuis la gestion d'échanges commerciaux jusqu'au tutorat ou l'aide à la personne. Cependant, les capacités de communication de ces systèmes sont actuellement limités par leur aptitude à comprendre la parole spontanée. Nos travaux s'intéressent au module de compréhension de la parole et présentent une proposition entièrement basée sur des approches stochastiques, permettant l'élaboration d'une hypothèse sémantique complète. Notre démarche s'appuie sur une représentation hiérarchisée du sens d'une phrase à base de frames sémantiques. La première partie du travail a consisté en l'élaboration d'une base de connaissances sémantiques adaptée au domaine du corpus d'expérimentation MEDIA (information touristique et réservation d'hôtel). Nous avons eu recours au formalisme FrameNet pour assurer une généricité maximale à notre représentation sémantique. Le développement d'un système à base de règles et d'inférences logiques nous a ensuite permis d'annoter automatiquement le corpus. La seconde partie concerne l'étude du module de composition sémantique lui-même. En nous appuyant sur une première étape d'interprétation littérale produisant des unités conceptuelles de base (non reliées), nous proposons de générer des fragments sémantiques (sous-arbres) à l'aide de réseaux bayésiens dynamiques. Les fragments sémantiques générés fournissent une représentation sémantique partielle du message de l'utilisateur. Pour parvenir à la représentation sémantique globale complète, nous proposons et évaluons un algorithme de composition d'arbres décliné selon deux variantes. La première est basée sur une heuristique visant à construire un arbre de taille et de poids minimum. La seconde s'appuie sur une méthode de classification à base de séparateurs à vaste marge pour décider des opérations de composition à réaliser. Le module de compréhension construit au cours de ce travail peut être adapté au traitement de tout type de dialogue. Il repose sur une représentation sémantique riche et les modèles utilisés permettent de fournir des listes d'hypothèses sémantiques scorées. Les résultats obtenus sur les données expérimentales confirment la robustesse de l'approche proposée aux données incertaines et son aptitude à produire une représentation sémantique consistante
Styles APA, Harvard, Vancouver, ISO, etc.
30

Antoine, Jean-Yves. « Coopération syntaxe-sémantique pour la compréhension de la parole spontanée ». Grenoble INPG, 1994. http://www.theses.fr/1994INPG0154.

Texte intégral
Résumé :
La parole spontanee se caracterise par une diversite structurelle qui complique grandement l'analyse de la structure linguistique des enonces oraux. Afin de surmonter ce probleme, nous proposons une strategie cooperative entre deux agents concurrents, bases respectivement sur des representations syntaxiques et semantiques. L'analyseur semantique, qui repose sur un mecanisme d'amorcage relationnel et isotopique, permet une analyse detaillee des structures de phrase. Du fait de ce fort pouvoir structurel, nous accordons a la semantique un role preeminent, tandis que la tache de la syntaxe est limite au filtrage des hypotheses semantiques. Notre approche se demarque ainsi resolument des strategies cooperatives classiques, ou la semantique controle la coherence de l'analyse syntaxique. Puisque les contraintes de bonne formation ne concerne pas l'analyse semantique, cette approche autorise en outre le traitement des constructions non attendues, et conduit a une amelioration de la robustesse d'analyse des enonces oraux spontanes
Styles APA, Harvard, Vancouver, ISO, etc.
31

Gayral, Françoise. « Sémantique du langage naturel et profondeur variable : Une première approche ». Paris 13, 1992. http://www.theses.fr/1992PA132004.

Texte intégral
Résumé :
Le travail que nous présentons concerne la sémantique du langage naturel. Il se situe dans le cadre de ce que la tradition informatique appelle compréhension du langage naturel. Apres avoir tenté de cerner les enjeux de cette discipline et avoir analysé les différents courants existants, nous présentons un système: le système à profondeur variable. Celui-ci s'appuie sur un appareil logique, précisément une logique non monotone. Les nombreuses connaissances exigées dans le processus de compréhension d'un texte sont représentées dans le système grâce à un ensemble de concepts et de règles. Nous montrons sur trois applications en quoi ce système apporte des éléments de réponse intéressants à certains problèmes sémantiques. Une application concerne l'élaboration d'une ontologie temporelle pour un traitement sémantique de récits en langage naturel. Cette ontologie rend compte des phénomènes temporels de la langue et concrétise cette capacité de la langue à multiplier les points de vue sur une entité temporelle. Une autre tente, sur un court texte, un travail sémantique complet prenant en compte de manière homogène les différents types de connaissances, du lexique aux connaissances du monde. Enfin, nous traitons d'un corpus composé de textes de constats d'accident de voiture. Nous cherchons à reproduire un raisonnement physique de sens commun qui semble souvent loin d'un raisonnement de physique traditionnelle et nous formalisons, pour cela, des éléments d'une physique naïve adaptée à ces textes.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Simonnet, Edwin. « Réseaux de neurones profonds appliqués à la compréhension de la parole ». Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1006/document.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre de l'émergence de l'apprentissage profond et aborde la compréhension de la parole assimilée à l'extraction et à la représentation automatique du sens contenu dans les mots d'une phrase parlée. Nous étudions une tâche d'étiquetage en concepts sémantiques dans un contexte de dialogue oral évaluée sur le corpus français MEDIA. Depuis une dizaine d'années, les modèles neuronaux prennent l'ascendant dans de nombreuses tâches de traitement du langage naturel grâce à des avancées algorithmiques ou à la mise à disposition d'outils de calcul puissants comme les processeurs graphiques. De nombreux obstacles rendent la compréhension complexe, comme l'interprétation difficile des transcriptions automatiques de la parole étant donné que de nombreuses erreurs sont introduites par le processus de reconnaissance automatique en amont du module de compréhension. Nous présentons un état de l'art décrivant la compréhension de la parole puis les méthodes d'apprentissage automatique supervisé pour la résoudre en commençant par des systèmes classiques pour finir avec des techniques d'apprentissage profond. Les contributions sont ensuite exposées suivant trois axes. Premièrement, nous développons une architecture neuronale efficace consistant en un réseau récurent bidirectionnel encodeur-décodeur avec mécanisme d’attention. Puis nous abordons la gestion des erreurs de reconnaissance automatique et des solutions pour limiter leur impact sur nos performances. Enfin, nous envisageons une désambiguïsation de la tâche de compréhension permettant de rendre notre système plus performant
This thesis is a part of the emergence of deep learning and focuses on spoken language understanding assimilated to the automatic extraction and representation of the meaning supported by the words in a spoken utterance. We study a semantic concept tagging task used in a spoken dialogue system and evaluated with the French corpus MEDIA. For the past decade, neural models have emerged in many natural language processing tasks through algorithmic advances or powerful computing tools such as graphics processors. Many obstacles make the understanding task complex, such as the difficult interpretation of automatic speech transcriptions, as many errors are introduced by the automatic recognition process upstream of the comprehension module. We present a state of the art describing spoken language understanding and then supervised automatic learning methods to solve it, starting with classical systems and finishing with deep learning techniques. The contributions are then presented along three axes. First, we develop an efficient neural architecture consisting of a bidirectional recurrent network encoder-decoder with attention mechanism. Then we study the management of automatic recognition errors and solutions to limit their impact on our performances. Finally, we envisage a disambiguation of the comprehension task making the systems more efficient
Styles APA, Harvard, Vancouver, ISO, etc.
33

Janod, Killian. « La représentation des documents par réseaux de neurones pour la compréhension de documents parlés ». Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0222/document.

Texte intégral
Résumé :
Les méthodes de compréhension de la parole visent à extraire des éléments de sens pertinents du signal parlé. On distingue principalement deux catégories dans la compréhension du signal parlé : la compréhension de dialogues homme/machine et la compréhension de dialogues homme/homme. En fonction du type de conversation, la structure des dialogues et les objectifs de compréhension varient. Cependant, dans les deux cas, les systèmes automatiques reposent le plus souvent sur une étape de reconnaissance automatique de la parole pour réaliser une transcription textuelle du signal parlé. Les systèmes de reconnaissance automatique de la parole, même les plus avancés, produisent dans des contextes acoustiques complexes des transcriptions erronées ou partiellement erronées. Ces erreurs s'expliquent par la présence d'informations de natures et de fonction variées, telles que celles liées aux spécificités du locuteur ou encore l'environnement sonore. Celles-ci peuvent avoir un impact négatif important pour la compréhension. Dans un premier temps, les travaux de cette thèse montrent que l'utilisation d'autoencodeur profond permet de produire une représentation latente des transcriptions d'un plus haut niveau d'abstraction. Cette représentation permet au système de compréhension de la parole d'être plus robuste aux erreurs de transcriptions automatiques. Dans un second temps, nous proposons deux approches pour générer des représentations robustes en combinant plusieurs vues d'un même dialogue dans le but d'améliorer les performances du système la compréhension. La première approche montre que plusieurs espaces thématiques différents peuvent être combinés simplement à l'aide d'autoencodeur ou dans un espace thématique latent pour produire une représentation qui augmente l'efficacité et la robustesse du système de compréhension de la parole. La seconde approche propose d'introduire une forme d'information de supervision dans les processus de débruitages par autoencodeur. Ces travaux montrent que l'introduction de supervision de transcription dans un autoencodeur débruitant dégrade les représentations latentes, alors que les architectures proposées permettent de rendre comparables les performances d'un système de compréhension reposant sur une transcription automatique et un système de compréhension reposant sur des transcriptions manuelles
Application of spoken language understanding aim to extract relevant items of meaning from spoken signal. There is two distinct types of spoken language understanding : understanding of human/human dialogue and understanding in human/machine dialogue. Given a type of conversation, the structure of dialogues and the goal of the understanding process varies. However, in both cases, most of the time, automatic systems have a step of speech recognition to generate the textual transcript of the spoken signal. Speech recognition systems in adverse conditions, even the most advanced one, produce erroneous or partly erroneous transcript of speech. Those errors can be explained by the presence of information of various natures and functions such as speaker and ambience specificities. They can have an important adverse impact on the performance of the understanding process. The first part of the contribution in this thesis shows that using deep autoencoders produce a more abstract latent representation of the transcript. This latent representation allow spoken language understanding system to be more robust to automatic transcription mistakes. In the other part, we propose two different approaches to generate more robust representation by combining multiple views of a given dialogue in order to improve the results of the spoken language understanding system. The first approach combine multiple thematic spaces to produce a better representation. The second one introduce new autoencoders architectures that use supervision in the denoising autoencoders. These contributions show that these architectures reduce the difference in performance between a spoken language understanding using automatic transcript and one using manual transcript
Styles APA, Harvard, Vancouver, ISO, etc.
34

Reboud, Alison. « Towards automatic understanding of narrative audiovisual content ». Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS398.pdf.

Texte intégral
Résumé :
Aujourd'hui les histoires se disent en ligne et souvent par le biais de vidéos. Comprendre ces histoires reste un défi pour les systèmes automatiques. Avec la multimodalité comme thème transversal, cette thèse décompose la tâche de "compréhension" en traitant les défis suivants: prédire le degré de mémorabilité, résumer et modéliser la narration des contenus audiovisuels
Modern storytelling is digital and video-based. Understanding the stories contained in videos remains a challenge for automatic systems. Having multimodality as a transversal theme, this research thesis breaks down the "understanding" task into the following challenges: Predicting memorability, summarising and modelling stories from audiovisual content
Styles APA, Harvard, Vancouver, ISO, etc.
35

Godin, Christophe. « Proposition d'un cadre algorithmique unifié pour la compréhension de la parole continue ». Compiègne, 1990. http://www.theses.fr/1990COMPD260.

Texte intégral
Résumé :
La modélisation du processus de la communication parlée fait intervenir un nombre important de modèles à chaque niveau d'analyse (modèles de Markov cachés variés, automates finis, grammaires, etc. ). Au sein d'un système de compréhension de la parole, l'hétérogénéité de tous ces modèles pose un problème majeur : leur coopération. Comme alternative aux systèmes dont les composants sont «faiblement couplés», ce mémoire propose une architecture «intégrée» où il existe une communication intensive entre les sources de connaissance. La principale originalité de cette approche est d'être développée à partir de l'étude des liens et des différences profondes entre les modèles pour en extraire des principes algorithmiques efficaces. Cette démarche «globale» se démarque nettement des approches classiques plus locales et plus analytiques. D'un point de vue pragmatique, les techniques de décodage acoustico-phonétique optimales sont tout d'abord analysées, comparées et reformulées grâce à l'introduction de la notion de «machines acoustiques». Munis de ces outils algorithmiques, l'extension des techniques de bas niveau à la classe des langages hors-contexte est entreprise. Cette classe est particulièrement importante car elle constitue un point de passage quasiment obligatoire pour aborder les techniques de traitement du langage naturel. Il est montré que seuls deux algorithmes peuvent réaliser ce «pont» entre techniques numériques de bas niveau et symboliques de haut niveau, le SOP et le STL. Ces deux algorithmes sont largement discutés et leur complexité est détaillée. Grâce à eux, la notion d'architecture intégrée acquiert un support algorithmique précis et efficace. A l'issue de ce travail, une nouvelle question se pose : la notion d'intégration permettra-t-elle de palier à l'impossibilité d'obtenir la solution optimale dans un système de compréhension de parole ?
Styles APA, Harvard, Vancouver, ISO, etc.
36

Chanier, Thierry. « Compréhension de textes dans un domaine technique : le système Actes ; application des grammaires d'unification et de la théorie du discours ». Paris 13, 1989. http://www.theses.fr/1989PA132015.

Texte intégral
Résumé :
Le système actes offre, d'une part, un formalisme permettant de definir des grammaires et de construire une representation semantique intermediaire des textes, et, d'autre part, un environnement de developpement de grammaires et d'analyse de textes
Styles APA, Harvard, Vancouver, ISO, etc.
37

Bouraoui, Jean-Léon Mehdi. « Analyse, modélisation et détection automatique des disfluences dans le dialogue oral spontané contraint : le cas du contrôle aérien ». Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00354772.

Texte intégral
Résumé :
Les disfluences sont un phénomène apparaissant fréquemment dans toute production orale spontanée ; elles consistent en l'interruption du cours normal du discours. Elles ont donné lieu à de nombreuses études en Traitement Automatique du Langage Naturel. En effet, leur étude et leur identification précise sont primordiales, sur les plans théorique et applicatif.
Cependant, la majorité des travaux de recherche sur le sujet portent sur des usages de langage quotidien : dialogues « à bâtons rompus », demandes d'horaire, discours, etc. Mais qu'en est-il des productions orales spontanées produites dans un cadre contraint ? Aucune étude n'a à notre connaissance été menée dans ce contexte. Or, on sait que l'utilisation d'une « langue de spécialité » dans le cadre d'une tâche donnée entraîne des comportements spécifiques.
Notre travail de thèse est consacré à l'étude linguistique et informatique des disfluences dans un tel cadre. Il s'agit de dialogues de contrôle de trafic aérien, aux contraintes pragmatiques et linguistiques. Nous effectuons une étude exhaustive des phénomènes de disfluences dans ce contexte. Dans un premier temps nous procédons à l'analyse fine de ces phénomènes. Ensuite, nous les modélisons à un niveau de représentation abstrait, ce qui nous permet d'obtenir les patrons correspondant aux différentes configurations observées. Enfin nous proposons une méthodologie de traitement automatique. Celle-ci consiste en plusieurs algorithmes pour identifier les différents phénomènes, même en l'absence de marqueurs explicites. Elle est intégrée dans un système de traitement automatique de la parole. Enfin, la méthodologie est validée sur un corpus de 400 énoncés.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Minescu, Bogdan. « Construction et stratégie d'exploitation des réseaux de confusion en lien avec le contexte applicatif de la compréhension de la parole ». Phd thesis, Université d'Avignon, 2008. http://tel.archives-ouvertes.fr/tel-00629195.

Texte intégral
Résumé :
Cette thèse s'intéresse aux réseaux de confusion comme représentation compacte et structurée des hypothèses multiples produites par un moteur de reconnaissance de parole et transmises à un module de post-traitement applicatif. Les réseaux de confusion (CN pour Confusion Networks) sont générés à partir des graphes de mots et structurent l'information sous la forme d'une séquence de classes contenant des hypothèses de mots en concurrence. Le cas d'usage étudié dans ces travaux est celui des hypothèses de reconnaissance transmises à un module de compréhension de la parole dans le cadre d'une application de dialogue déployée par France Telecom. Deux problématiques inhérentes à ce contexte applicatif sont soulevées. De façon générale, un système de dialogue doit non seulement reconnaître un énoncé prononcé par un utilisateur, mais aussi l'interpréter afin de déduire sons sens. Du point de vue de l'utilisateur, les performances perçues sont plus proches de celles de la chaîne complète de compréhension que de celles de la reconnaissance vocale seule. Ce sont ces performances que nous cherchons à optimiser. Le cas plus particulier d'une application déployée implique de pouvoir traiter des données réelles et donc très variées. Un énoncé peut être plus ou moins bruité, dans le domaine ou hors-domaine, couvert par le modèle sémantique de l'application ou non, etc. Étant donnée cette grande variabilité, nous posons la question de savoir si le fait d'appliquer les mêmes traitements sur l'ensemble des données, comme c'est le cas dans les approches classiques, est une solution adaptée. Avec cette double perspective, cette thèse s'attache à la fois à enrichir l'algorithme de construction des CNs dans le but d'optimiser globalement le processus de compréhension et à proposer une stratégie adéquate d'utilisation des réseaux de confusion dans le contexte d'une application réelle. Après une analyse des propriétés de deux approches de construction des CNs sur un corpus de données réelles, l'algorithme retenu est celui du "pivot". Nous en proposons une version modifiée et adaptée au contexte applicatif en introduisant notamment un traitement différencié des mots du graphe qui privilégie les mots porteurs de sens. En réponse à la grande variabilité des énoncés à traiter dans une application déployée, nous proposons une stratégie de décision à plusieurs niveaux qui vise à mieux prendre en compte les spécificités des différents types d'énoncés. Nous montrons notamment qu'il est préférable de n'exploiter la richesse des sorties multiples que sur les énoncés réellement porteurs de sens. Cette stratégie permet à la fois d'optimiser les temps de calcul et d'améliorer globalement les performances du système
Styles APA, Harvard, Vancouver, ISO, etc.
39

Lermuzeaux, Jean-Marc. « Contribution à l'intégration des niveaux de traitement automatique de la langue écrite : ANAEL : un environnement de compréhension basé sur les objets, les actions et les grammaires d'événements ». Caen, 1988. http://www.theses.fr/1988CAEN2029.

Texte intégral
Résumé :
L'environnement ANAEL est basé sur une représentation des connaissances sous forme d'objets et d'actions et sur les grammaires d'événements. ANAEL s'articule sur trois niveaux : 1) le niveau acquisition des modèles réel et linguistique ; 2) le niveau compréhension où un interpréteur manipule une base de connaissances en langage naturel et 3) le niveau méta où les modèles sont considérés comme des faits
Styles APA, Harvard, Vancouver, ISO, etc.
40

Jabaian, Bassam. « Systèmes de compréhension et de traduction de la parole : vers une approche unifiée dans le cadre de la portabilité multilingue des systèmes de dialogue ». Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00818970.

Texte intégral
Résumé :
La généralisation de l'usage des systèmes de dialogue homme-machine accroît la nécessité du développement rapide des différents composants de ces systèmes. Les systèmes de dialogue peuvent être conçus pour différents domaines d'application et dans des langues différentes. La nécessité d'une production rapide pour de nouvelles langues reste un problème ouvert et crucial auquel il est nécessaire d'apporter des solutions efficaces.Nos travaux s'intéressent particulièrement au module de compréhension de la parole et proposent des approches pour la portabilité rapide peu coûteuse de ce module.Les méthodes statistiques ont montré de bonnes performances pour concevoir les modules de compréhension de la parole pour l'étiquetage sémantique de tours de dialogue.Cependant ces méthodes nécessitent de larges corpus pour être apprises. La collecte de ces corpus est aussi coûteuse en temps et en expertise humaine.Dans cette thèse, nous proposons plusieurs approches pour porter un système de compréhension d'une langue vers une autre en utilisant les techniques de la traduction automatique. Les premiers travaux consistent à appliquer la traduction automatique à plusieurs niveaux du processus de portabilité du système de compréhension afin de réduire le coût lié à production de nouvelles données d'apprentissage. Les résultats expérimentaux montrent que l'utilisation de la traduction automatique permet d'obtenir des systèmes performant avec un minimum de contribution humaine.Cette thèse traite donc à la fois de la traduction automatique et de la compréhension de la parole. Nous avons effectué une comparaison approfondie entre les méthodes utilisées pour chacune des tâches et nous avons proposé un décodage conjoint basé sur une méthode discriminante qui à la fois traduit une phrase et lui attribue ses étiquettes sémantiques. Ce décodage est obtenu par une approche à base de graphe qui permet de composer un graphe de traduction avec un graphe de compréhension. Cette représentation peut être généralisée pour permettre des transmissions d'informations riches entre les composants du système de dialogue
Styles APA, Harvard, Vancouver, ISO, etc.
41

Poulain, d'Andecy Vincent. « Système à connaissance incrémentale pour la compréhension de document et la détection de fraude ». Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS025.

Texte intégral
Résumé :
Le Document Understanding est la discipline de l’Intelligence Artificielle qui dote les machines du pouvoir de Lecture. Cette capacité sous-entend de comprendre dans une vision globale l’objet du document, sa classe, et dans une vision locale, des informations précises, des entités. Un double défi est de réussir ces opérations dans plus de 90% des cas tout en éduquant la machine avec le moins d’effort humain possible. Cette thèse défend la possibilité de relever ces défis avec des méthodes à apprentissage incrémental. Nos propositions permettent d’éduquer efficacement et itérativement une machine avec quelques exemples de document. Pour la classification, nous démontrons (1) la possibilité de découvrir itérativement des descripteurs textuels, (2) l’intérêt de tenir compte de l’ordre du discours et (3) l’intérêt d’intégrer dans le modèle de donnée incrémental une mémoire épisodique de quelques Souvenirs d’échantillon. Pour l’extraction d’entité, nous démontrons un modèle structurel itératif à partir d’un graphe en étoile dont la robustesse est améliorée avec quelques connaissances a priori d’ordre général. Conscient de l’importance économique et sociétale de la fraude dans les flux documentaires, cette thèse fait également le point sur cette problématique. Notre contribution est modeste en étudiant les catégories de fraude pour ouvrir des perspectives de recherche. Cette thèse a été conduite dans un cadre atypique en conjonction avec une activité industrielle à Yooz et des projets collaboratifs, en particulier, les projets FEDER SECURDOC soutenu par la région Nouvelle Aquitaine et Labcom IDEAS soutenu par l’ANR
The Document Understanding is the Artificial Intelligence ability for machines to Read documents. In a global vision, it aims the understanding of the document function, the document class, and in a more local vision, it aims the understanding of some specific details like entities. The scientific challenge is to recognize more than 90% of the data. While the industrial challenge requires this performance with the least human effort to train the machine. This thesis defends that Incremental Learning methods can cope with both challenges. The proposals enable an efficient iterative training with very few document samples. For the classification task, we demonstrate (1) the continue learning of textual descriptors, (2) the benefit of the discourse sequence, (3) the benefit of integrating a Souvenir of few samples in the knowledge model. For the data extraction task, we demonstrate an iterative structural model, based on a star-graph representation, which is enhanced by the embedding of few a priori knowledges. Aware about economic and societal impacts because the document fraud, this thesis deals with this issue too. Our modest contribution is only to study the different fraud categories to open further research. This research work has been done in a non-classic framework, in conjunction of industrial activities for Yooz and collaborative research projects like the FEDER Securdoc project supported by la région Nouvelle Aquitaine, and the Labcom IDEAS supported by the ANR
Styles APA, Harvard, Vancouver, ISO, etc.
42

Durand, Marie. « La découverte et la compréhension des profils d’apprenants : classification semi-supervisée et acquisition d’une langue seconde ». Thesis, Paris 8, 2019. http://www.theses.fr/2019PA080029.

Texte intégral
Résumé :
Cette thèse a pour ambition l'élaboration d’une méthodologie efficace pour la découverte et la description du profil de l'apprenant d'une L2 à partir de données d'acquisition (perception, compréhension et production). Nous souhaitons détecter des régularités dans les comportements acquisitionnels de sous-groupes d'apprenants, en tenant compte de l'aspect multidimensionnel du processus d'apprentissage L2. La méthodologie proposée appartient au domaine de l'intelligence artificielle, plus spécifiquement aux techniques de clustering semi supervisé.Notre algorithme a été appliqué à la base de données du projet VILLA qui inclut les données d'acquisition d'apprenants de 5 langues sources différentes (français, italien, néerlandais, allemand et anglais) avec le polonais comme langue cible. 156 apprenants adultes ont chacun été testé avec une variété de tâches en polonais pendant 14h de session d'enseignement, à partir de l'exposition initiale. Ces tests ont permis d’évaluer leurs performances sur les niveaux d'analyse linguistique que sont la phonologie, la morphologie, la morphosyntaxe et le lexique. La base de données inclut également leur sensibilité aux caractéristiques de l'input, telles que la fréquence et la transparence des éléments lexicaux utilisés dans les tâches linguistiques.La mesure de similarité utilisée dans les techniques classiques de clustering est revisitée dans ce travail afin d'évaluer la distance entre deux apprenants d'un point de vue acquisitionniste. Elle repose sur l'identification de la stratégie de réponse de l'apprenant à une structure de test linguistique spécifique. Nous montrons que cette mesure permet de détecter la présence ou l'absence dans les réponses de l'apprenant d'une stratégie proche du système flexionnel de la LC. Ce procédé fournit une classification des apprenants cohérente avec la recherche sur l'acquisition de la langue seconde et apporte de nouvelles pistes de réflexion sur les parcours acquisitionnels des apprenants ab initio
This thesis aims to develop an effective methodology for the discovery and description of the learner's profile of an L2 based on acquisition data (perception, understanding and production). We want to detect patterns in the acquisition behaviours of subgroups of learners, taking into account the multidimensional aspect of the L2 learning process. The proposed methodology belongs to the field of artificial intelligence, more specifically to semi supervised clustering techniques.Our algorithm has been applied to the data base of the VILLA project, which includes the performance of learners from 5 different source languages (French, Italian, Dutch, German and English) with Polish as the target language. 156 adult learners were each tested with a variety of tasks in Polish during 14 hours of teaching session, starting from the initial exposure. These tests made it possible to evaluate their performance on the levels of linguistic analysis that are phonology, morphology, morphosyntax and lexicon. The database also includes their sensitivity to input characteristics, such as the frequency and transparency of lexical elements used in linguistic tasks.The similarity measure used in traditional clustering techniques is revisited in this work in order to evaluate the distance between two learners from an acquisitionist point of view. It is based on the identification of the learner's response strategy to a specific language test structure. We show that this measure makes it possible to detect the presence or absence in the learner's responses of a strategy similar to the LC flexional system, and so enables our algorithm to provide a resulting classification consistent with second language acquisition research. As a result, we claim that our algorithm might be relevant in the empirical establishment of learners' profiles and the discovery of new opportunities for reflection or analysis
Styles APA, Harvard, Vancouver, ISO, etc.
43

Trujillo, Morales Noël. « Stratégie de perception pour la compréhension de scènes par une approche focalisante, application à la reconnaissance d'objets ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00926395.

Texte intégral
Résumé :
La problématique scientifique abordée concerne la reconnaissance visuelle d'objets s'inscrivant dans une scène observée. Nous proposons une méthodologie qui va de la définition et la construction du modèle de l'objet, jusqu'à la définition de la stratégie pour la reconnaissance ultérieure de celui-ci. Du point de vue de la représentation, cette approche est capable de modéliser aussi bien la structure de l'objet que son apparence ; à partir de caractéristiques multiples. Celles-ci servent d'indices d'attention lors de la phase de reconnaissance. Dans ce cadre, reconnaître l'objet revient à " instancier " ce modèle dans la scène courante. La tâche de reconnaissance correspond à un processus actif de génération/vérification d'hypothèses régi par le principe de focalisation. Ce dernier agissant sur quatre niveaux du " spectre attentionnel " : la sélection des opérateurs pour le traitement bas niveau, la sélection de l'intervalle d'action de ceux-ci, la sélection de la résolution et la sélection de la région d'intérêt dans l'image. Le fait d'agir sur tous ces niveaux, entraîne une diminution de la combinatoire implicite dans une problématique de recherche visuelle. Sous un regard plutôt unifié, le mécanisme de contrôle de l'attention, du type bottom-up$top-down, reste implicite dans la stratégie globale de reconnaissance. La " focalisation progressive " et la représentation hybride du modèle, permettent de tirer profit des deux types de représentation classiques. D'une part, la structure de l'objet permet de focaliser le processus de reconnaissance à partir d'observations locales, d'autre part, une fois détectée la région probable de l'objet, la décision finale est faite à partir de l'apparence de celui-ci. Dans le cadre proposé, en intégrant des connaissances sur la structure de la scène (paramètres 3D), d'autres tâches comme celles de la localisation et du suivi sont intégrées d'une façon naturelle. La prise en compte de ces paramètres permet d'estimer l'évolution de la zone d'intérêt dans l'image, lorsque l'objet évolue dans le monde 3D. La méthodologie proposée a été testée pour la reconnaissance, la localisation et le suivi de visages et de piétons.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Ieva, Carlo. « Révéler le contenu latent du code source : à la découverte des topoi de programme ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS024/document.

Texte intégral
Résumé :
Le développement de projets open source à grande échelle implique de nombreux développeurs distincts qui contribuent à la création de référentiels de code volumineux. À titre d'exemple, la version de juillet 2017 du noyau Linux (version 4.12), qui représente près de 20 lignes MLOC (lignes de code), a demandé l'effort de 329 développeurs, marquant une croissance de 1 MLOC par rapport à la version précédente. Ces chiffres montrent que, lorsqu'un nouveau développeur souhaite devenir un contributeur, il fait face au problème de la compréhension d'une énorme quantité de code, organisée sous la forme d'un ensemble non classifié de fichiers et de fonctions.Organiser le code de manière plus abstraite, plus proche de l'homme, est une tentative qui a suscité l'intérêt de la communauté du génie logiciel. Malheureusement, il n’existe pas de recette miracle ou bien d’outil connu pouvant apporter une aide concrète dans la gestion de grands bases de code.Nous proposons une approche efficace à ce problème en extrayant automatiquement des topoi de programmes, c'est à dire des listes ordonnées de noms de fonctions associés à un index de mots pertinents. Comment se passe le tri? Notre approche, nommée FEAT, ne considère pas toutes les fonctions comme égales: certaines d'entre elles sont considérées comme une passerelle vers la compréhension de capacités de haut niveau observables d'un programme. Nous appelons ces fonctions spéciales points d’entrée et le critère de tri est basé sur la distance entre les fonctions du programme et les points d’entrée. Notre approche peut être résumée selon ses trois étapes principales : 1) Preprocessing. Le code source, avec ses commentaires, est analysé pour générer, pour chaque unité de code (un langage procédural ou une méthode orientée objet), un document textuel correspondant. En outre, une représentation graphique de la relation appelant-appelé (graphe d'appel) est également créée à cette étape. 2) Clustering. Les unités de code sont regroupées au moyen d’une classification par clustering hiérarchique par agglomération (HAC). 3) Sélection du point d’entrée. Dans le contexte de chaque cluster, les unités de code sont classées et celles placées à des positions plus élevées constitueront un topos de programme.La contribution de cette thèse est triple: 1) FEAT est une nouvelle approche entièrement automatisée pour l'extraction de topoi de programme, basée sur le regroupement d'unités directement à partir du code source. Pour exploiter HAC, nous proposons une distance hybride originale combinant des éléments structurels et sémantiques du code source. HAC requiert la sélection d’une partition parmi toutes celles produites tout au long du processus de regroupement. Notre approche utilise un critère hybride basé sur la graph modularity et la cohérence textuelle pour sélectionner automatiquement le paramètre approprié. 2) Des groupes d’unités de code doivent être analysés pour extraire le programme topoi. Nous définissons un ensemble d'éléments structurels obtenus à partir du code source et les utilisons pour créer une représentation alternative de clusters d'unités de code. L’analyse en composantes principales, qui permet de traiter des données multidimensionnelles, nous permet de mesurer la distance entre les unités de code et le point d’entrée idéal. Cette distance est la base du classement des unités de code présenté aux utilisateurs finaux. 3) Nous avons implémenté FEAT comme une plate-forme d’analyse logicielle polyvalente et réalisé une étude expérimentale sur une base ouverte de 600 projets logiciels. Au cours de l’évaluation, nous avons analysé FEAT sous plusieurs angles: l’étape de mise en grappe, l’efficacité de la découverte de topoi et l’évolutivité de l’approche
During the development of long lifespan software systems, specification documents can become outdated or can even disappear due to the turnover of software developers. Implementing new software releases or checking whether some user requirements are still valid thus becomes challenging. The only reliable development artifact in this context is source code but understanding source code of large projects is a time- and effort- consuming activity. This challenging problem can be addressed by extracting high-level (observable) capabilities of software systems. By automatically mining the source code and the available source-level documentation, it becomes possible to provide a significant help to the software developer in his/her program understanding task.This thesis proposes a new method and a tool, called FEAT (FEature As Topoi), to address this problem. Our approach automatically extracts program topoi from source code analysis by using a three steps process: First, FEAT creates a model of a software system capturing both structural and semantic elements of the source code, augmented with code-level comments; Second, it creates groups of closely related functions through hierarchical agglomerative clustering; Third, within the context of every cluster, functions are ranked and selected, according to some structural properties, in order to form program topoi.The contributions of the thesis is three-fold:1) The notion of program topoi is introduced and discussed from a theoretical standpoint with respect to other notions used in program understanding ;2) At the core of the clustering method used in FEAT, we propose a new hybrid distance combining both semantic and structural elements automatically extracted from source code and comments. This distance is parametrized and the impact of the parameter is strongly assessed through a deep experimental evaluation ;3) Our tool FEAT has been assessed in collaboration with Software Heritage (SH), a large-scale ambitious initiative whose aim is to collect, preserve and, share all publicly available source code on earth. We performed a large experimental evaluation of FEAT on 600 open source projects of SH, coming from various domains and amounting to more than 25 MLOC (million lines of code).Our results show that FEAT can handle projects of size up to 4,000 functions and several hundreds of files, which opens the door for its large-scale adoption for program understanding
Styles APA, Harvard, Vancouver, ISO, etc.
45

Bouzekri, Elodie. « Notation et processus outillé pour la description, l'analyse et la compréhension de l'automatisation dans les systèmes de commande et contrôle ». Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30003.

Texte intégral
Résumé :
L'automatisation permet à certains systèmes d'exécuter des fonctions sans contrôle extérieur et d'adapter les fonctions qu'ils exécutent à de nouveaux contextes ou buts. Les systèmes contenant de l'automatisation sont de plus en plus utilisés, autant pour aider les humains dans les tâches du quotidien, avec, par exemple, le lave-vaisselle, que dans leur vie professionnelle, par exemple pour un pilote d'avion, le cockpit. Dans le domaine de l'aéronautique, l'automatisation a permis de progressivement réduire le nombre de 4 pilotes à 2 pilotes. L'automatisation a d'abord été considérée comme un moyen d'augmenter les performances et réduire l'effort en migrant des tâches précédemment allouées aux humains à des systèmes. Ceci, dans l'hypothèse où les systèmes seraient meilleurs que les humains pour réaliser certaines tâches et vice-versa. Le MABA-MABA (Machine Are Better At - Man Are Better At) de Paul Fitts est une proposition de méthode d'allocation de tâches et de fonctions reprenant cette hypothèse. Dans la continuité de cette hypothèse, différentes descriptions de niveaux d'automatisation ont été proposées. Les 10 niveaux d'automatisation de Parasuraman, Sheridan et Wickens décrivent différentes allocations de tâches et de fonctions entre l'humain et le système. Plus le niveau d'automatisation augmente, plus le nombre de tâches migrées de l'humain vers le système est important. Ces approches ont fait l'objet de critiques, notamment à travers " MABA-MABA or Abracadabra? Progress on Human-Automation Coordination " de Dekker et Woods qui soulignent que l'introduction de l'automatisation induit de nouvelles tâches allouées à l'humain pour gérer cette automatisation. Ils rappellent aussi que ces approches masquent l'aspect coopératif du couple humain-système contenant de l'automatisation. Dans le but de caractériser cette coopération humain-système, il a été montré qu'il est important de considérer, lors de la phase de conception, l'allocation de l'autorité, de la responsabilité, du contrôle et de l'initiative de modifications de ces allocations lors de l'activité. Cependant dans les approches existantes, la conception de l'automatisation et de la coopération avec l'humain est considérée à haut niveau en amont dans le cycle de conception et de développement du système. Ces travaux ne fournissent pas de support pour raisonner sur l'allocation des ressources, des transitions de contrôle, de la responsabilité et de l'autorité tout au long du cycle de conception et de développement du système. L'objectif de cette thèse est de démontrer qu'il est possible d'analyser et de décrire à bas niveau les tâches et les fonctions ainsi que la coopération entre l'humain et le système contenant de l'automatisation. Cette analyse et cette description permet de caractériser les tâches, les fonctions et la coopération en terme d'autorité, de responsabilité, de partage de ressources et d'initiation de transition de contrôle. Cela, dans l'objectif de fournir un cadre conceptuel et un processus outillé à base de modèles pour l'analyse structurée et la compréhension de l'automatisation. Afin de montrer la faisabilité de cette approche, cette thèse présente les résultats de son application à une étude de cas industrielle dans le domaine d'application de l'aéronautique
Automation enables systems to execute some functions without outside control and to adapt functions they execute to new contexts and goals. Systems with automation are used more and more to help humans in everyday tasks with, for example, the dishwasher. Systems with automation are also used to help humans in their professional life. For example, in the field of aeronautics, automation has gradually reduced the number from 4 pilots to 2 pilots. Automation was first considered as a way to increase performance and reduce effort by migrating tasks previously allocated to humans to systems. This, in the hypothesis that systems would be better than humans would at performing certain tasks and vice-versa. Paul Fitts proposed MABA-MABA (Machine Are Better At - Man Are Better At), a tasks and functions allocation method based on this hypothesis. In line with this hypothesis, various descriptions of levels of automation have been proposed. The 10 levels of Automation (LoA) by Parasuraman, Sheridan et Wickens describe different tasks and functions allocations between the human and the system. The higher the level of automation, the more tasks migrate from human to system. These approaches have been the subject of criticism. " MABA-MABA or Abracadabra? Progress on Human-Automation Coordination " of Dekker and Woods highlights that automation leads to new tasks allocated to humans to manage this automation. Moreover, they recall that these approaches hide the cooperative aspect of the human-system couple. To characterize the human-system cooperation, the importance of considering, at design time, the allocation of authority, responsibility, control and the initiative to modify these allocations during the activity was demonstrated. However, the existing approaches describe a high-level design of automation and cooperation early in the design and development process. These approaches do not provide support for reasoning about the allocation of resources, control transitions, responsibility and authority throughout the design and development process. The purpose of this thesis is to demonstrate the possibility to analyze and describe at a low-level tasks and functions as well as the cooperation between humans and the system with automation. This analysis and this description enable to characterize tasks, functions and the cooperation in terms of authority, responsibility, resource sharing and control transition initiation. The aim of this work is to provide a framework and a model-based and tool supported process to analyze and understand automation. In order to show the feasibility of this approach, this thesis presents the results of the application of the proposed process to an industrial case study in the field of aeronautics
Styles APA, Harvard, Vancouver, ISO, etc.
46

Ferret, Olivier. « ANTHAPSI : un système d'analyse thématique et d'apprentissage de connaissances pragmatiques fondé sur l'amorçage ». Phd thesis, Université Paris Sud - Paris XI, 1998. http://tel.archives-ouvertes.fr/tel-00189116.

Texte intégral
Résumé :
Le système ANTHAPSI a été conçu dans le but d'apprendre de manière automatique des connaissances sur les situations prototypiques du monde à partir de textes. Afin que ce processus d'apprentissage soit le plus général possible, ANTHAPSI se place dans un cadre minimisant le recours à des connaissances pragmatiques fournies a priori. Pour mener sa tâche à bien, il met l'accent sur la nécessité d'associer étroitement l'analyse des textes, en l'occurrence une analyse de nature thématique, et l'apprentissage de connaissances. Cette association repose sur un modèle de mémoire spécifique, chargé de servir de trait d'union entre ces deux processus. Cette mémoire joue en effet le rôle de réceptacle actif pour les connaissances nécessaires au fonctionnement de l'analyse thématique, ces connaissances étant produites par le processus d'apprentissage à partir des représentations des textes construites par l'analyse thématique. De cette manière, l'association entre l'analyse des textes et l'apprentissage de connaissances permet de développer progressivement un noyau initial de connaissances et met en oeuvre par là même la première forme d'amorçage présente dans ANTHAPSI, appelée amorçage intra-niveau. ANTHAPSI explore également la façon dont ce noyau initial peut être constitué à partir d'un niveau de connaissances moins précises et moins structurées. Il est ainsi formé de deux composantes fonctionnellement similaires mais utilisant des connaissances et des représentations de niveaux différents : MLK applique les principes de l'amorçage intra-niveau en manipulant des représentations composées de graphes conceptuels tandis que ROSA le fait avec des représentations simplement composées de mots. L'amorçage inter-niveau montre en l'occurrence comment ROSA peut contribuer, au moins sur le plan thématique, à la mise en opération de MLK.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Shang, Guokan. « Spoken Language Understanding for Abstractive Meeting Summarization Unsupervised Abstractive Meeting Summarization with Multi-Sentence Compression and Budgeted Submodular Maximization. Energy-based Self-attentive Learning of Abstractive Communities for Spoken Language Understanding Speaker-change Aware CRF for Dialogue Act Classification ». Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAX011.

Texte intégral
Résumé :
Grâce aux progrès impressionnants qui ont été réalisés dans la transcription du langage parlé, il est de plus en plus possible d'exploiter les données transcrites pour des tâches qui requièrent la compréhension de ce que l'on dit dans une conversation. Le travail présenté dans cette thèse, réalisé dans le cadre d'un projet consacré au développement d'un assistant de réunion, contribue aux efforts en cours pour apprendre aux machines à comprendre les dialogues des réunions multipartites. Nous nous sommes concentrés sur le défi de générer automatiquement les résumés abstractifs de réunion.Nous présentons tout d'abord nos résultats sur le Résumé Abstractif de Réunion (RAR), qui consiste à prendre une transcription de réunion comme entrée et à produire un résumé abstractif comme sortie. Nous introduisons une approche entièrement non-supervisée pour cette tâche, basée sur la compression multi-phrases et la maximisation sous-modulaire budgétisée. Nous tirons également parti des progrès récents en vecteurs de mots et dégénérescence de graphes appliqués au TAL, afin de prendre en compte les connaissances sémantiques extérieures et de concevoir de nouvelles mesures de diversité et d'informativité.Ensuite, nous discutons de notre travail sur la Classification en Actes de Dialogue (CAD), dont le but est d'attribuer à chaque énoncé d'un discours une étiquette qui représente son intention communicative. La CAD produit des annotations qui sont utiles pour une grande variété de tâches, y compris le RAR. Nous proposons une couche neuronale modifiée de Champ Aléatoire Conditionnel (CAC) qui prend en compte non seulement la séquence des énoncés dans un discours, mais aussi les informations sur les locuteurs et en particulier, s'il y a eu un changement de locuteur d'un énoncé à l'autre.La troisième partie de la thèse porte sur la Détection de Communauté Abstractive (DCA), une sous-tâche du RAR, dans laquelle les énoncés d'une conversation sont regroupés selon qu'ils peuvent être résumés conjointement par une phrase abstractive commune. Nous proposons une nouvelle approche de la DCA dans laquelle nous introduisons d'abord un encodeur neuronal contextuel d'énoncé qui comporte trois types de mécanismes d'auto-attention, puis nous l'entraînons en utilisant les méta-architectures siamoise et triplette basées sur l'énergie. Nous proposons en outre une méthode d'échantillonnage générale qui permet à l'architecture triplette de capturer des motifs subtils (p. ex., des groupes qui se chevauchent et s'emboîtent)
With the impressive progress that has been made in transcribing spoken language, it is becoming increasingly possible to exploit transcribed data for tasks that require comprehension of what is said in a conversation. The work in this dissertation, carried out in the context of a project devoted to the development of a meeting assistant, contributes to ongoing efforts to teach machines to understand multi-party meeting speech. We have focused on the challenge of automatically generating abstractive meeting summaries.We first present our results on Abstractive Meeting Summarization (AMS), which aims to take a meeting transcription as input and produce an abstractive summary as output. We introduce a fully unsupervised framework for this task based on multi-sentence compression and budgeted submodular maximization. We also leverage recent advances in word embeddings and graph degeneracy applied to NLP, to take exterior semantic knowledge into account and to design custom diversity and informativeness measures.Next, we discuss our work on Dialogue Act Classification (DAC), whose goal is to assign each utterance in a discourse a label that represents its communicative intention. DAC yields annotations that are useful for a wide variety of tasks, including AMS. We propose a modified neural Conditional Random Field (CRF) layer that takes into account not only the sequence of utterances in a discourse, but also speaker information and in particular, whether there has been a change of speaker from one utterance to the next.The third part of the dissertation focuses on Abstractive Community Detection (ACD), a sub-task of AMS, in which utterances in a conversation are grouped according to whether they can be jointly summarized by a common abstractive sentence. We provide a novel approach to ACD in which we first introduce a neural contextual utterance encoder featuring three types of self-attention mechanisms and then train it using the siamese and triplet energy-based meta-architectures. We further propose a general sampling scheme that enables the triplet architecture to capture subtle patterns (e.g., overlapping and nested clusters)
Styles APA, Harvard, Vancouver, ISO, etc.
48

Dumont, Maxime. « Apports de la modélisation des interactions pour une compréhension fonctionnelle d'un écosystème : application à des bactéries nitrifiantes en chémostat ». Montpellier 2, 2008. http://www.theses.fr/2008MON20199.

Texte intégral
Résumé :
Les caractéristiques des écosystèmes microbiens en font des modèles d'étude pertinents pour aborder des questions importantes de l'écologie générale par une approche expérimentale et théorique. Leur utilisation reste néanmoins marginale du fait de la difficulté à extraire certaines informations clés. Dans cette thèse, nous avons travaillé à dépasser ces difficultés pour étudier le lien biodiversité-fonctionnement des écosystèmes par le couplage d'outils de la biologie moléculaire et de l'automatique lors du suivi de chémostats nitrifiants. D'abord, nous avons élaboré une procédure générique permettant d'assigner une des fonctions étudiée de l'écosystème considéré à chacun des phylotypes (i. E. Espèces moléculaires) détectés via des empreintes moléculaires. Cette méthode constitue une étape essentielle pour effectuer une modélisation structurée de type "bilan de matière" des interactions inter- et intra-spécifiques pouvant s'établir entre les différentes espèces assemblées. Ensuite, nous avons procédé à une modélisation de ce type en considérant la dynamique de quatre bactéries nitrifiantes : deux nitritantes (i. E. Oxydant l'azote ammoniacal en nitrite) et deux nitratantes (i. E. Oxydant les nitrites en nitrates). La confrontation des données expérimentales de ces quatre phylotypes avec les sorties du modèle montre que la prise en compte des différents types d'interactions permet d'expliquer la coexistence de plusieurs espèces en compétition pour une même ressource ainsi que la dynamique des fonctions exprimées au niveau de l'écosystème considéré. Enfin, nous avons étudié l'influence de différentes perturbations biotiques sur la résilience des systèmes nitrifiants et confirmons plusieurs études tendant à montrer que le fonctionnement macroscopique stable d'un écosystème peut s'accompagner de variations importantes au niveau populationnel
The characteristics of microbial ecosystems make them appropriate models for studying certain important issues in general ecology using both theoretical and experimental approaches. However, their use remains marginal due to the difficulty in extracting key information. In this thesis, we have worked to such difficulties in the study of the link between biodiversity and ecosystem functioning by the use of molecular and automatic tools during the monitoring of nitrifying chemostats. First, we propose a generic method for allocating one of the studied functions performed by an ecosystem to each of the phylotypes (i. E. Molecular species) detected by molecular fingerprinting. This method constitutes an essential step in devising a structured mass-balance model taking account of inter- and intra-specific interactions which may occur between the different assembled species. Then, we accomplished such modeling by considering the dynamics of four phylotypes: two AOB (i. E. Oxidizing ammonium into nitrite) and two NOB (i. E. Oxidizing nitrites into nitrates). The comparison of the experimental data for these four phylotypes with the simulation given by the model shows that microbial interactions can lead to coexistence and play an important role in the functions expressed by the ecosystem. Finally, we have also studied the influence of different biotic disturbances on the resilience of the nitrifying systems and as a result, confirm studies which have been shown that the macroscopic functioning of an ecosystem can be stable despite significant variations at the populational scale
Styles APA, Harvard, Vancouver, ISO, etc.
49

Caubriere, Antoine. « Du signal au concept : réseaux de neurones profonds appliqués à la compréhension de la parole ». Thesis, Le Mans, 2021. https://tel.archives-ouvertes.fr/tel-03177996.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le cadre de l’apprentissage profond appliqué à la compréhension de la parole. Jusqu'à présent, cette tâche était réalisée par l’intermédiaire d’une chaîne de composants mettant en oeuvre, par exemple, un système de reconnaissance de la parole, puis différents traitements du langage naturel, avant d’impliquer un système de compréhension du langage sur les transcriptions automatiques enrichies. Récemment, des travaux dans le domaine de la reconnaissance de la parole ont montré qu’il était possible de produire une séquence de mots directement à partir du signal acoustique. Dans le cadre de cette thèse, il est question d’exploiter ces avancées et de les étendre pour concevoir un système composé d’un seul modèle neuronal entièrement optimisé pour la tâche de compréhension de la parole, du signal au concept. Tout d’abord, nous présentons un état de l’art décrivant les principes de l’apprentissage neuronal profond, de la reconnaissance de la parole, et de la compréhension de la parole. Nous décrivons ensuite les contributions réalisées selon trois axes principaux. Nous proposons un premier système répondant à la problématique posée et l’appliquons à une tâche de reconnaissance des entités nommées. Puis, nous proposons une stratégie de transfert d’apprentissage guidée par une approche de type curriculum learning. Cette stratégie s’appuie sur les connaissances génériques apprises afin d’améliorer les performances d’un système neuronal sur une tâche d’extraction de concepts sémantiques. Ensuite, nous effectuons une analyse des erreurs produites par notre approche, tout en étudiant le fonctionnement de l’architecture neuronale proposée. Enfin, nous mettons en place une mesure de confiance permettant d’évaluer la fiabilité d’une hypothèse produite par notre système
This thesis is part of the deep learning applied to spoken language understanding. Until now, this task was performed through a pipeline of components implementing, for example, a speech recognition system, then different natural language processing, before involving a language understanding system on enriched automatic transcriptions. Recently, work in the field of speech recognition has shown that it is possible to produce a sequence of words directly from the acoustic signal. Within the framework of this thesis, the aim is to exploit these advances and extend them to design a system composed of a single neural model fully optimized for the spoken language understanding task, from signal to concept. First, we present a state of the art describing the principles of deep learning, speech recognition, and speech understanding. Then, we describe the contributions made along three main axes. We propose a first system answering the problematic posed and apply it to a task of named entities recognition. Then, we propose a transfer learning strategy guided by a curriculum learning approach. This strategy is based on the generic knowledge learned to improve the performance of a neural system on a semantic concept extraction task. Then, we perform an analysis of the errors produced by our approach, while studying the functioning of the proposed neural architecture. Finally, we set up a confidence measure to evaluate the reliability of a hypothesis produced by our system
Styles APA, Harvard, Vancouver, ISO, etc.
50

Popesco, Liana. « Analyse et génération de textes à partir d'un seul ensemble de connaissances pour chaque langue naturelle et de meta-règles de structuration ». Paris 6, 1986. http://www.theses.fr/1986PA066138.

Texte intégral
Résumé :
Le système analyseur/générateur construit réalise des traductions sémantiques multilingues en contexte limité. Caractéristiques principales: unicité de l'ensemble de connaissances fourni pour chaque langue; représentation interne exclusivement sémantique; réorganisation, par le système, de la grammaire initiale (atn sémantico-syntaxique), en vue de la génération; déduction (à partir de principes généraux donnes sous forme de métarègles) de règles de structuration spécifiques à chaque langue, règles utilisables en génération.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie