Literatura académica sobre el tema "Compréhension automatique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Compréhension automatique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Compréhension automatique"

1

Wilss, Wolfram. "Basic Concepts of MT". Meta 38, n.º 3 (30 de septiembre de 2002): 403–13. http://dx.doi.org/10.7202/004608ar.

Texto completo
Resumen
Résumé Malgré les progrès réalisés dans l'élaboration des algorithmes de parsage, les systèmes de traduction automatiques, même les plus sophistiqués, se heurtent encore à de nombreux problèmes dont ceux de la complexité syntaxique, de l'ambiguïté lexicale et de l'analyse interphrastique. La compréhension de la corrélation entre les diverses unités syntagmatiques dépend des connaissances linguistiques, extralinguistiques et contextuelles dont la combinaison permet justement au traducteur humain de résoudre de manière quasi automatique les problèmes d'ambiguïté. La mise sur pied d'un système totalement indépendant de l'action humaine relevant aujourd'hui de l'utopie, la recherche en traduction automatique devrait davantage s'orienter vers la conception de micro-systèmes utilisables dans des domaines précis.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Arnold, Madeleine. "La sémiotique : un instrument pour la représentation des connaissances en intelligence artificielle". Études littéraires 21, n.º 3 (12 de abril de 2005): 81–90. http://dx.doi.org/10.7202/500872ar.

Texto completo
Resumen
Modélisation des comportements finalisés en intelligence artificielle. Compréhension automatique du récit écrit. Compréhension automatique de l'image. Principaux problèmes posés par l'intelligence artificielle à la sémiotique. Apports de la sémiotique dans la perspective d'une collaboration avec l'intelligence artificielle. Ouverture à la pluralité des approches qui multiplie les points d'interaction entre la sémiotique et l'intelligence artificielle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Miclet, Laurent, Jacques Siroux, Marc Guyomard y Guy Mercier. "Compréhension automatique de la parole et intelligence artificielle". Annales Des Télécommunications 44, n.º 5-6 (mayo de 1989): 283–300. http://dx.doi.org/10.1007/bf02995674.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Kandeel, Rana. "Les stratégies de la post-édition en traduction automatique des proverbes par des apprenants FLE et de traduction". Texto Livre: Linguagem e Tecnologia 14, n.º 3 (13 de agosto de 2021): e29459. http://dx.doi.org/10.35699/1983-3652.2021.29459.

Texto completo
Resumen
Cette recherche a pour objectif d’analyser les stratégies utilisées dans la post-édition des proverbes traduits automatiquement du français en arabe par des apprenants du Français Langue Étrangère (FLE). Nous présenterons d’abord les fondements théoriques de la traduction automatique des proverbes ainsi que l’état de l’art. L’étude utilise une approche méthodologique mixte. La méthode quantitative comprend un questionnaire distribué sur les étudiantes de FLE pour connaître l’outil de traduction le plus utilisé dans la traduction automatique. La méthode qualitative est axée sur la collecte des données concernant les erreurs de traduction ainsi que sur l’observation directe des stratégies mises en œuvre dans la post-édition de proverbes traduits par Google Translate. Les résultats de l’étude montrent que Google Translate est l’outil le plus utilisé en traduction et que les erreurs de traduction automatique sont d’ordre syntaxique, lexical, sémantique et stylistique. Les stratégies mises en œuvre dans la post-édition sont variées : découpage des proverbes en unités linguistiques pour la recherche de sens, recours à une langue-pivot (l’anglais), et recherche des équivalents dans des ressources de référence. L’étude conclut que bien que la traduction automatique des proverbes dans les paires de langues éloignées telles que le français et l’arabe semble complexe, Google Translate a constitué un outil d’aide à la compréhension des mots constitutifs des proverbes pour des apprenants FLE, ce qui a permis la compréhension du sens des expressions proverbiales, de trouver leurs équivalents et de les post-éditer.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Sabah, G. "Revue des connaissances nécessaires pour la compréhension automatique de textes". Linx 14, n.º 1 (1986): 9–26. http://dx.doi.org/10.3406/linx.1986.1038.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Buvet, Pierre-André. "Compréhension automatique des articles politiques : le traitement des discours rapportés". Éla. Études de linguistique appliquée N° 180, n.º 4 (2015): 475. http://dx.doi.org/10.3917/ela.180.0475.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Beligné, Max. "Des espaces dans la détection de métaphores". Nouvelles perspectives en sciences sociales 12, n.º 2 (22 de agosto de 2017): 69–99. http://dx.doi.org/10.7202/1040905ar.

Texto completo
Resumen
Cet article propose un état des lieux des méthodes de détection manuelle et automatique de métaphores en vue par la suite d’une meilleure compréhension d’une science sociale. L’objectif est tout d’abord d’avoir une vue synthétique et organisée des différentes théories et méthodologies (formant à chaque fois des espaces possibles différents de détection) pour mieux orienter la recherche sur cette question difficile. Ensuite, chaque espace a été approfondi pour mieux comprendre ses potentialités, ses limites et ses articulations avec les autres espaces. L’aspect protéiforme des métaphores oblige à cet exercice important à la fois de synthèse et de détail, car c’est en combinant les spécialisations des différents espaces qu’on pourra améliorer la détection globale de ce trope aux définitions multiples. Enfin, il s’agit, à travers cet article, de reconstruire un cadre intégrateur pour appréhender simultanément les détections manuelles et automatiques, car elles sont souvent traitées de manière indépendante du fait des spécialisations alors qu’elles traitent d’un problème commun.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Dündar, Oğuz İbrahim. "Utilisation Potentielle De Chatgpt Dans L'apprentissage Des Langues Etrangères : Exploration Des Possibilités Selon Les Niveaux Langagiers Du CECRL". Kahramanmaraş Sütçü İmam Üniversitesi Sosyal Bilimler Dergisi 21, n.º 1 (30 de abril de 2024): 63–75. http://dx.doi.org/10.33437/ksusbd.1384040.

Texto completo
Resumen
Cet article explore les possibilités d'utiliser ChatGPT, un agent conversationnel basé sur l'intelligence artificielle, dans l'apprentissage des langues étrangères. L'article commence par définir les termes tels que "Chatbot", "Intelligence Artificielle", "Traitement Automatique des Langues" et "Génération de Langage Naturel", afin de fournir un contexte approprié. Ensuite, il examine les différentes activités langagières définies et propose des utilisations potentielles de ChatGPT pour chacune de ces activités. Les possibilités d'utilisation de ChatGPT dans l'apprentissage des langues étrangères comprennent la pratique de la conversation écrite, la correction grammaticale, l'enrichissement du vocabulaire, la compréhension écrite, les jeux de rôles et simulations écrites, la préparation aux examens écrits, les activités de traduction, les exercices de grammaire et de conjugaison, les explications grammaticales et bien d’autres. L'article propose également une illustration des avantages de ChatGPT selon les niveaux langagiers du CECRL avec l’utilisation des exemples de questions de production écrite ainsi que des extraits de textes pour la compréhension écrite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Serry, Arnaud. "Le Système d’identification automatique (AIS): limites et apports à la sécurité, la protection et la connaissance de la circulation maritime". Géo-Regards 7, n.º 1 (2014): 103–21. http://dx.doi.org/10.33055/georegards.2014.007.01.103.

Texto completo
Resumen
Le Système automatique d’identification (AIS) des navires est un outil destiné à accroître la sécurité de la navigation et l’efficacité de la gestion du trafic maritime. Son utilisation, obligatoire pour les navires de plus de 300 tonneaux, renforce à la fois la sécurité et la sûreté maritimes. Ses apports sont indéniables malgré quelques carences et limites techniques. Cet outil prend sa pleine mesure complétant ou s’insérant dans les autres systèmes déjà en place ou dans ceux à venir. La technologie AIS est, par ailleurs, à l’origine d’une importante manne d’informations. Ces informations sont riches pour l’étude et la compréhension des circulations maritimes, spécialement pour la communauté scientifique ou les acteurs portuaires. Cependant, l’emploi qui est fait de ces données peut être problématique, notamment celui qui en est fait par la piraterie maritime ou celui qui concerne leurs utilisations commerciales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Buhnila, Ioana. "Le rôle des marqueurs et indicateurs dans l’analyse lexicale et sémantico-pragmatique de reformulations médicales". SHS Web of Conferences 138 (2022): 10005. http://dx.doi.org/10.1051/shsconf/202213810005.

Texto completo
Resumen
Les textes de spécialité médicale posent des problèmes de compréhension au grand public à cause de la complexité des termes médicaux. Vu l’importance croissante de rendre les recherches médicales compréhensibles pour le grand public, la reformulation et la simplification des notions techniques deviennent indispensables. L’objectif de ce travail est de présenter une méthode semi-automatique d’identification des reformulations médicales à l’aide d’une analyse lexicale et sémantico-pragmatique des marqueurs et indicateurs de reformulation. Pour automatiser l’annotation, nous vérifions l’hypothèse du lien qui existe entre les marqueurs / indicateurs de reformulation, les relations lexicales et les fonctions sémantico-pragmatiques de reformulations (par exemple, le marqueur « est un / une » indique une reformulation de type hyperonymie / définition). Nous présentons notre méthode d’annotation et d’analyse lexicale et les résultats obtenus sur un corpus des textes médicaux scientifiques écrits en français. Notre méthode servira à la création de ressources linguistiques sur la reformulation des termes de spécialité pour les vulgariser devant le grand public. Notre méthode est applicable également sur d’autres langues proches du français.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Compréhension automatique"

1

Jamoussi, Selma. "Méthodes statistiques pour la compréhension automatique de la parole". Nancy 1, 2004. http://www.theses.fr/2004NAN10170.

Texto completo
Resumen
Le travail présenté dans ce manuscrit vise à réaliser un système de compréhension de la parole spontanée spécifique à un domaine. Nous nous intéressons plus particulièrement à l'interrogation orale de bases de données. Dans notre travail, nous nous sommes basés sur une approche statistique qui considère que la compréhension est un processus de traduction de la parole en des concepts sémantiques. L'idée que nous défendons est qu'il est possible d'obtenir des concepts sémantiques significatifs par des méthodes de classification automatique. Pour ce faire, nous commençons par proposer des mesures permettant de quantifier les relations sémantiques entre mots. Ensuite, nous testons quelques méthodes de partionnement : l'algorithme des K-means et les cartes de Kohonen. Nous proposons également l'utilisation des réseaux neuronaux de Oja et Sanger. Enfin, nous utilisons le réseau bayésien AutoClass conçu pour la classification non supervisée et qui nous a fourni des concepts significatifs
The work presented in this manuscript aims to carry out an understanding system for the spontaneous speech. We are interested in specific domain systems that concern the oral interrogation of data bases. Our work is based on statistical approach which considers the understanding problem as a translation process between words and semantic concepts. The idea we defend in this thesis is the possibility to obtain significant semantic concepts using clustering methods. We start by defining some semantic measures to quantify the semantic relations between words. Then, we use triggers to build up concepts in an automatic way. In order to improve we test two well known methods : the K-means algorithm and the Kohonen maps. We also propose the use of the Oja and Sanger neural networks. The latter proved to be ineffective in our case. Lastly, we use a Bayesian network conceived for clustering and called AutoClass. AutoClass provides clear and significant concepts
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Brison, Eric. "Stratégies de compréhension dans l'interaction multimodale". Toulouse 3, 1997. http://www.theses.fr/1997TOU30075.

Texto completo
Resumen
Dans le domaine des interfaces homme-machine, les interfaces multimodales qui utilisent plusieurs modalites d'entree comme la parole et le geste sont une reponse aux interfaces de demain grace a la souplesse d'interaction qu'elles pourraient offrir vis-a-vis de l'utilisateur. Un des problemes de ces interfaces est la comprehension et l'interpretation des enonces de l'utilisateur lorsque plusieurs modalites sont utilisees en parallele. Deux approches permettant de resoudre les problemes de references intermodales, tels que ceux de l'enonce mets ca ici accompagne de deux gestes de designation, sont decrites dans ce document. L'objectif de la premiere approche, provenant de l'ingenierie des interfaces, a consiste a identifier et a resoudre les problemes de references intermodales sans considerer la signification des enonces. Elle fait l'objet de la premiere partie de ce travail de recherche. La deuxieme methode de comprehension est fondee sur des methodes issues du langage naturel. Celle-ci permet d'integrer la resolution des references intermodales dans une methode de resolution plus generale autorisant egalement la resolution d'autres references linguistiques telles que les anaphores. Cette deuxieme approche est constituee d'une partie generique dans le processus de comprehension ce qui permet une portabilite vers d'autres applications. Enfin, pour evaluer les performances de la comprehension, une methode d'interpretation basee sur une reconnaissance semantique a ete elaboree dans le cadre d'une application de conception assistee par ordinateur. Cette interpretation basee sur un apprentissage semantique d'enonces induit une methode de specification des enonces multimodaux autorises.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Pham, Thi Nhung. "Résolution des anaphores nominales pour la compréhension automatique des textes". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD049/document.

Texto completo
Resumen
Toutes les informations présentes actuellement sur le web représentent une source d‘informations colossale, qui s‘enrichit de jour en jour. L‘analyse automatique de ces informations, qui sont plus souvent non-structurées, constitue un véritable enjeu économique et scientifique. La résolution des anaphores nominales s‘inscrit dans la structuration des informations grâce à l‘identification du lien entre des groupes nominaux, elle permet de simplifier des tâches à différentes applications : la traduction automatique, le résumé ou l‘extraction automatique d‘information, le data mining etc. Dans ce contexte, le travail que nous avons mené dans cette thèse évoque différentes méthodes de résolution des anaphores nominales de deux types : infidèles et associatives. En nous fondant sur divers aspects autours de la notion d‘anaphore nominale et des notions de voisinage comme la résolution d‘anaphores pronominales, la résolution de coréférences ; en combinant des méthodes existantes avec des outils et des ressources disponibles pour la langue française, notre travail s‘attache à trois modules : module de prétraitement du corpus, module de résolution des anaphores nominales et le module d‘évaluation. Au module de prétraitement, les ressources lexicales sont constituées et mobilisées grâces aux analyses au niveau linguistique des anaphores nominales. La plateforme Unitex est le principal outil utilisé à cette étape. Pour les anaphores du type infidèle, nous avons utilisé deux méthodes différentes : la première mobilise des ressources lexicales simples avec les entrées de groupes nominaux uniquement ; la deuxième mobilise des ressources plus élaborées (les entrées de groupes nominaux et verbaux). Pour les anaphores associatives du type méronymique, nous nous fondons sur la théorie des classes d‘objets afin de décrire le type de relation anaphorique établie Résumé 17 entre l‘expression anaphorique et son antécédent. Les ressources utilisées pour ce type d‘anaphore sont ainsi divisées hiérarchiquement selon les classes et les domaines. Le module de résolution est l‘étape de décision, nous nous basons sur le calcul du poids de saillance de chacun des antécédents potentiels pour sélectionner le meilleur candidat. Chaque candidat peut avoir différents facteurs de saillance, qui correspond à sa probabilité d'être sélectionné. Le poids de saillance final est calculé par le moyen pondéré des poids de saillance élémentaires. Les facteurs de saillances sont proposés après les analyses syntaxiques et sémantiques du corpus. L‘évaluation de notre travail constitue un vrai enjeu à cause de la complexité de la tâche, mais elle nous permet d‘avoir une vue globale sur nos méthodes de travail. La comparaison des résultats obtenus permet de visualiser l‘apport de chaque paramètre utilisé. L‘évaluation de notre travail nous permet également de voir les erreurs au niveau du prétraitement (l‘extraction des syntagmes nominaux, des syntagmes verbaux…), cela nous a permis d‘intégrer un module de correction dans notre système
In order to facilitate the interpretation of texts, this thesis is devoted to the development of a system to identify and resolve the indirect nominal anaphora and the associative anaphora. Resolution of the indirect nominal anaphora is based on calculating salience weights of candidate antecedents with the purpose of associating these antecedents with the anaphoric expressions identified. It is processed by twoAnnexe317different methods based on a linguistic approach: the first method uses lexical and morphological parameters; the second method uses morphological and syntactical parameters. The resolution of associative anaphora is based on syntactical and semantic parameters.The results obtained are encouraging: 90.6% for the indirect anaphora resolution with the first method, 75.7% for the indirect anaphora resolution with the second method and 68.7% for the associative anaphora resolution. These results show the contribution of each parameter used and the utility of this system in the automatic interpretation of the texts
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Goulian, Jerome. "Stratégie d'analyse détaillée pour la compréhension automatique robuste de la parole". Lorient, 2002. http://www.theses.fr/2002LORIS021.

Texto completo
Resumen
Nous présentons une stratégie robuste d analyse des énonces oraux pour la compréhension hors-contexte de la parole en dialogue homme-machine finalisé. Nous faisons l'hypothese qu'une analyse détaillée des énoncés oraux (associant syntaxe et sémantique est essentielle au traitement correct des énonces et est la condition nécessaire au developpement d'applications non plus limitées a des cadres très finalisés mais faisant preuve d'une certaine généricité. Dans le système proposé ROMUS applique au renseignement touristique, une analyse syntaxique partielle de surface (cascades de transducteurs) permet tout dabord la segmentation de l'énonce en groupes minimaux élémentaires. Cette etape, générique, est motivée par la prise en compte explicite et intrinsèque des régularités observées dans les productions orales. Une analyse globale des dépendances sémantico-pragamatiques entre les segments (grammaires des liens) permet ensuite de déduire la représentation sémantique de l'énoncé
This PHD focusses on speech understanding in man-machine communication. We discuss the issue of how a speech understanding system can be made robust against spontaneous speech phenomena as well as achieving a detailed analysis of spoken French. We argue that a detailed linguistic analysis (with both syntax and semantics) is essential for correctly process spoken utterances and is also a necesary condition to develop applications that are not entirely dedicated to a very specific task but present sufficient genericity. The system presented (ROMUS) implements speech understanding in a two-satge process. The first one achieves a finite-state shallow parsing consists in segmenting the utterance into basic units (spoken adaptated chunks). This stage is generic and is motivated by the regularities observed in spoken French. The second one, a Link Grammar parser, looks for inter-chunks dependencies in order to build a rich representation of the semantic structure of the utterance
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Sileo, Damien. "Représentations sémantiques et discursives pour la compréhension automatique du langage naturel". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30201.

Texto completo
Resumen
Les modèles computationnels pour la compréhension automatique des textes ont suscité un vif intérêt en raison de gains de performances inhabituels au cours des dernières années, certains d'entre eux conduisant à des scores d'évaluation surhumains. Ce succès a conduit à affirmer la création de représentations universelles de phrases. Dans cette thèse, nous questionnons cette affirmation au travers de deux angles complémentaires. Premièrement, les réseaux de neurones et les représentations vectorielles sont-ils suffisamment expressifs pour traiter du texte de sorte à pouvoir effectuer un large éventail de tâches complexes ? Dans cette thèse, nous présenterons les modèles neuronaux actuellement utilisés et les techniques d'entraînement associées. Nous proposons des critères pour l'expressivité de composition des représentations vectorielles et montrons que la suite d'évaluations et les encodeurs de phrases très répandus (SentEval/InferSent) sont limités dans leur expressivité ; des changements mineurs peuvent permettre de nouvelles compositions expressives et interprétables, mais pourraient ne pas suffire, ce qui peut justifier le changement de paradigme vers de nouveaux modèles basés sur les Transformers. Deuxièmement, nous aborderons la question de l'universalité dans les représentation des phrases: que cachent en réalité ces prétentions à l'universalité ? Nous décrivons quelques théories de ce qu'est le sens d'une expression textuelle, et dans une partie ultérieure de cette thèse, nous soutenons que la sémantique (contenu littéral, non situé) par rapport à la pragmatique (la partie du sens d'un texte définie par son rôle et son contexte) est prépondérante dans les données d'entraînement et d'évaluation actuelles des modèles de compréhension du langage naturel. Pour atténuer ce problème, nous montrons que la prédiction de marqueurs de discours (classification de marqueurs de discours initialement présents entre des phrases) peut être considérée comme un signal d'apprentissage centré sur la pragmatique pour la compréhension de textes. Nous construisons un nouvel ensemble de données de prédiction de marqueurs de discours qui donne des résultats nettement supérieurs aux travaux précédents. Nous proposons également un nouvel outil d'évaluation de la compréhension du langage naturel en se basant sur le discours et la pragmatique. Cet outil pourrait inciter la communauté du traitement des langues à prendre en compte les considérations pragmatiques lors de l'évaluation de modèles de compréhension du langage naturel
Computational models for automatic text understanding have gained a lot of interest due to unusual performance gains over the last few years, some of them leading to super-human scores. This success reignited some grandeur claims about artificial intelligence, such as universal sentence representation. In this thesis, we question these claims through two complementary angles. Firstly, are neural networks and vector representations expressive enough to process text and perform a wide array of complex tasks? In this thesis, we will present currently used computational neural models and their training techniques. We propose a criterion for expressive compositions and show that a popular evaluation suite and sentence encoders (SentEval/InferSent) have an expressivity bottleneck; minor changes can yield new compositions that are expressive and insightful, but might not be sufficient, which may justify the paradigm shift towards newer Transformers-based models. Secondly, we will discuss the question of universality in sentence representation: what actually lies behind these universality claims? We delineate a few theories of meaning, and in a subsequent part of this thesis, we argue that semantics (unsituated, literal content) as opposed to pragmatics (meaning as use) is preponderant in the current training and evaluation data of natural language understanding models. To alleviate that problem, we show that discourse marker prediction (classification of hidden discourse markers between sentences) can be seen as a pragmatics-centered training signal for text understanding. We build a new discourse marker prediction dataset that yields significantly better results than previous work. In addition, we propose a new discourse-based evaluation suite that could incentivize researchers to take into account pragmatic considerations when evaluating text understanding models
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Bueno, Steve. "L'activation automatique de la mémoire sémantique". Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX10068.

Texto completo
Resumen
L'objectif de cette thèse était d'étudier sous différents angles d'approche le phénomène d'amorçage. Dans ce but, plusieurs facteurs, connus pour leur impact sur l'activation du lexique mental, ont été manipulés. Il s'agissait du délai de présentation de mots amorces, de la nature de la tâche expérimentale ainsi que des liens lexicaux entre les mots. Les experiences réalisées ont permis d'observer que l'activation du lexique pouvait rapidement être mise en place ( dès 43 ms) lorsque les mots partageaient un chevauchement sémantique important et non pas lorsqu'ils étaient associés. La nature de la tâche expérimentale était primordiale dans l'observation de cet effet puisqu'il a été démontré que la tâche de catégorisation sémantique permettait une activation des mots sémantiquement reliés à ce délai bref alors que la tâche de décision lexicale n'y parvenait pas. La tâche de décision lexicale est pourtant très répandue dans le cadre d'étude. Ceci nous a conduits à reconsidérer l'emploi massif de cette tâche dans l'étude des effets d'amorçage précoces. Néanmoins, la tâche de décision lexicale demeure un outil fiable que la tâche de catégorisation sémantique lorsqu'il s'agit d'étudier des délais d'activation plus longs (à partir de 71 ms). De plus nous avons opérer une nette distinction entre le matériel associatif et le matériel sémantique présents dans cette thèse afin de clairement délimiter la contribution de chacunn d'eux dans le phénomène d'amorçage. Ainsi il paraît que la relation sémantique est plus efficace que la relation associative dans l'observation des effets d'amorçage automatiques. Ces résultats sont en accord avec plusieurs modèles de l'organisation du lexique et/ou de l'amorçage, notamment le modèle de diffusion de l'activation, le modèle HAL (Burgess et collaborateurs) mais aussi les modèles connexionnistes tels que ceux de Plaut (1995) ou Cree,McRae, et McNorgan (1999).
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Mouret, Pascal. "Etude et intégration de contraintes contextuelles dans la compréhension automatique du français". Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22044.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634.

Texto completo
Resumen
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634/document.

Texto completo
Resumen
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Camelin, Nathalie. "Stratégies robustes de compréhension de la parole basées sur des méthodes de classification automatique". Avignon, 2007. http://www.theses.fr/2007AVIG0149.

Texto completo
Resumen
Cette thèse concerne le problème de la compréhension automatique de la parole dans des applications acceptant de la parole téléphonique spontanée multilocuteurs. L'étude consiste en l'intégration de méthodes de classification automatique dans les processus de décodage et de compréhension de la parole. Nos travaux portent sur l'adaptation de ces méthodes, ayant obtenu d'excellents résultats sur le langage écrit, aux particularités des sorties d'un système de reconnaissance automatique de parole. La principale difficulté de traitement de ce type de données réside dans le caractère incertain des paramètres d'entrée des classifieurs. Parmi toutes les méthodes de classification existantes, nous avons choisi d'en utiliser trois. La première est à base d'arbres de décisions sémantiques, les deux autres, considérées par la communauté scientifique de l'apprentissage automatique parmi les plus performantes, sont des méthodes de classification à large marge : le boosting et les machines à support vectoriel. Une méthode d'étiquetage de séquences, les champs conditionnels aléatoires, est également étudiée et utilisée. Deux cadres applicatifs sont abordés : -PlanResto, application touristique de dialogue oral homme-machine, permet aux utilisateurs de formuler en langage naturel une demande concernant un restaurant sur Paris. La compréhension effectuée en temps réel consiste en la construction d'une requête à une base de données. L'accord consensuel des différents classifieurs est utilisé en tant que mesure de confiance ; -SCOrange, corpus de sondage téléphonique, vise à collecter les messages des utilisateurs de mobile exprimant leur satisfaction vis à vis du service client. La compréhension effectuée off-line consiste à évaluer les proportions des différentes opinions exprimées selon un thème et une polarité. Les classifieurs permettent d'extraire les avis des utilisateurs dans une stratégie visant à évaluer de manière fiable les proportions des opinions ainsi que leur évolution
The work presented in this PhD thesis deals with the automatic Spoken Language Understanding (SLU) problem in multiple speaker applications which accept spontaneous speech. The study consists in integrating automatic classification methods in the speech decoding and understanding processes. My work consists in adapting methods, wich have already shown good performance in text domain, to the particularities of an Automatic Speech Recognition system outputs. The main difficulty of the process of this type of data is due to the uncertainty in the input parameters for the classifiers. Among all existing automatic classification methods, we choose to use three of them. The first is based on Semantic Classification Trees, the two others classification methods, considered among the most performant in the scientific community of machine learning, are large margin ones based on boosting and support vector machines. A sequence labelling method, Conditional Random Fields (CRF), is also studied and used. Two applicative frameworks are investigated : -PlanResto is a tourism application of human-computer dialogue. It enables users to ask information about a restaurant in Paris in natural language. The real-time speech understanding process consists in building a request for a database. Within this framework, the consensual agreement of the different classifiers, considered as semantic experts, is used as a confidence measure ; -SCOrange is a spoken telephone survey corpus. The purpose is to collect messages of mobile users expressing their opinion about the customer service. The off-line speech understanding process consists in evaluating proportions of opinions about a topic and a polarity. Classifiers enable the extraction of user's opinions in a strategy that can reliably evalute the distribution of opinions and their temporal evolution
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Compréhension automatique"

1

A, Gal, ed. Compréhension automatique du langage naturel: Le cas de l'interrogation simple en français. Paris: Masson, 1986.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Jean-Pierre, Tubach, Boë Louis-Jean y Calliope (Association), eds. La Parole et son traitement automatique. Paris: Masson, 1989.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

La Parole et son traitement automatique. Dunod, 1997.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Compréhension automatique"

1

Simonnet, Edwin, Sahar Ghannay, Nathalie Camelin y Yannick Estève. "Simulation d'erreurs de reconnaissance automatique dans un cadre de compréhension de la parole". En XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-30.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Informes sobre el tema "Compréhension automatique"

1

Taherizadeh, Amir y Cathrine Beaudry. Vers une meilleure compréhension de la transformation numérique optimisée par l’IA et de ses implications pour les PME manufacturières au Canada - Une recherche qualitative exploratoire. CIRANO, junio de 2021. http://dx.doi.org/10.54932/jdxb2231.

Texto completo
Resumen
Ce rapport présente les principaux résultats d’une étude qualitative exploratoire visant à examiner l’impact de l’intelligence artificielle (IA), en tant que technologie à usage général (TUG) sur la productivité et l’emploi à l’échelle de l’entreprise. À la suite de l’analyse de sources de données primaires et secondaires (comprenant 27 entretiens, rapports et discussions de groupe), nous établissons d’abord une échelle de maturité de l’adoption de l’IA et un classement des petites et moyennes entreprises (PME) qui intègrent l’IA dans leurs processus de travail en quatre archétypes : l’Aspirant, le Fonceur, le Leader et le Visionnaire. Nous définissons chaque archétype de façon à mettre en évidence les changements particuliers à opérer pour qu’une entreprise puisse passer à l’étape suivante de l’adoption de l’IA. Deuxièmement, nous définissons et examinons sept obstacles à l’adoption généralisée de l’IA par les PME manufacturières. Troisièmement, à l’aide de trois études de cas, nous explorons trois projets d’IA menés par des entreprises québécoises axées sur l’IA afin de montrer, d’une part, l’apport de l’intégration de l’apprentissage automatique (AA) aux produits et aux processus de travail sur le plan de la productivité des entreprises, et d’autre part son effet sur leurs effectifs. Dans l’ensemble, les résultats de notre étude suggèrent que la réussite de l’intégration de l’IA nécessite une transformation numérique au niveau de l’entreprise, que nous présentons comme un continuum. Dans les premières étapes, où l’adoption de l’IA se fait autour de projets (en particulier pour les entreprises des catégories Aspirant et Fonceur), les effectifs des entreprises ont tendance à augmenter parallèlement aux gains de productivité en même temps que le perfectionnement indispensable des compétences de la main-d’œuvre existante. En outre, lorsque l’IA est déployée à l’échelle de l’entreprise (chez les Leaders et les Visionnaires) et que cette dernière rehausse le niveau de ses activités d’innovation, on enregistre plutôt des pertes d’emploi parallèlement aux gains de productivité. Par la suite, nous introduisons des indicateurs indirects de l’omniprésence de l’IA, car nous estimons qu’il s’agit de mesures plus réalistes pour évaluer le taux d’adoption de l’IA par les PME en phase fluide. Enfin, nous proposons quatre recommandations qui ont des implications pour les chercheurs, les praticiens et les responsables politiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Jacob, Steve y Sébastien Brousseau. L’IA dans le secteur public : cas d’utilisation et enjeux éthiques. Observatoire international sur les impacts sociétaux de l'IA et du numérique, mayo de 2024. http://dx.doi.org/10.61737/fcxm4981.

Texto completo
Resumen
L’introduction de l’intelligence artificielle (IA) dans l’administration publique est en pleine expansion et représente la phase plus récente de la transformation numérique. L’utilisation de systèmes d’IA est souvent associée à l’amélioration de l’efficacité et de la productivité, car elle permet d’exécuter rapidement des tâches routinières, de réaliser des activités à une plus grande échelle et de rendre les services accessibles à un plus grand nombre de personnes. Cette technologie a donc le potentiel de transformer plusieurs aspects du travail administratif comme la prise de décision automatisée, l’analyse prédictive, le traitement de documents et l’interaction avec les citoyens. À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. Ce rapport a pour but de décrire des cas concrets d’utilisation de l’IA dans les organisations publiques de pays de l’OCDE. L’intention est d’enrichir la connaissance et la compréhension des potentialités de l’IA en présentant un éventail de systèmes aux capacités techniques variées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía