Academic literature on the topic 'Traitement automatique du langage naturel – Linguistique – Informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Traitement automatique du langage naturel – Linguistique – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Traitement automatique du langage naturel – Linguistique – Informatique":

1

Buvet*, Pierre-André, and Laurent Tromeur. "Le dialogue homme-machine : un système de traduction automatique spécifique." Traduction 55, no. 1 (April 30, 2010): 58–70. http://dx.doi.org/10.7202/039602ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Nous décrivons un système de dialogue homme-machine conçu comme un système de traduction bilingue qui a la particularité de mettre en relation une langue naturelle et un langage informatique. Le système de dialogue homme-machine doit servir d’interface entre un utilisateur et une plateforme Web qui développe automatiquement des applications informatiques. Dans un premier temps, nous rappelons les particularités d’un système de dialogue homme-machine et nous présentons le système d’interaction en langue naturelle que nous utilisons. Dans un deuxième temps, nous détaillons le mode de fonctionnement du système de transfert. Dans un troisième temps, nous précisons le traitement linguistique qui permet au système d’interpréter des instructions rédigées par les usagers et de les traduire en langage-machine.

Dissertations / Theses on the topic "Traitement automatique du langage naturel – Linguistique – Informatique":

1

Mela, Augusta. "Traitement automatique de la coordination par et." Paris 13, 1992. http://www.theses.fr/1992PA132040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse des constructions coordonnées a toujours constitué un centre d'intérêt aussi bien en linguistique théorique qu'en linguistique computationnelle. Le phénomène de la coordination par "et" est à la fois large et subtil. Une chaîne conjonctionnelle peut apparaître à droite de presque n'importe quel élément d'une chaîne, constituant ou non-constituant mais pas n'importe où. Cela pose à la fois le problème théorique de rendre compte précisément de l'ensemble des constructions autorisées et le problème calculatoire d'analyser ces constructions le plus efficacement possible. Dans cette thèse nous dressons un inventaire des difficultés occasionnées par ces constructions; nous présentons un état de l'art: précisement nous exposons comme différents formalismes syntaxiques, (tg, gpsg, lfg, ccg) abordent ces problèmes. Nous en tirons des conséquences concernant le choix d'un cadre formel adéquat pour la description de la coordination. Nous proposons un critère de coordination base sur le pouvoir constructeur de têtes lexicales. Nous prétendons que ce critère rend compte des phénomènes structurels que sont les coordinations de constituants de même catégorie et des coordinations de plus d'un constituant, et qu'il est pertinent mais insuffisant pour la coordination de catégories différentes et la coordination à trouée qui sont des phénomènes plus sémantiques.
2

Hagège, Caroline. "Analyse syntaxique automatique du portugais." Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF20028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Haddad, Afifa Le Guern Michel. "Traitement des nominalisations anaphoriques en indexation automatique." [S.l.] : [s.n.], 2001. http://theses.univ-lyon2.fr/sdx/theses/lyon2/intranet/haddad_a.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Al-Shafi, Bilal. "Traitement informatique des signes diacritiques : pour une application automatique et didactique." Université de Besançon, 1996. http://www.theses.fr/1996BESA1029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Oh, Hyun-Gum. "Représentation des valeurs sémantiques du passé composé français en vue d'un traitement informatique." Paris 4, 1991. http://www.theses.fr/1991PA040070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentations un modèle de résolution concernant le problème du temps et de l'aspect dans la langue française, étude détaillée du cas du passé composé, en vue d'un traitement informatique. Cette thèse est constituée de trois parties : première partie, généralités et concepts théoriques ; deuxième partie, valeurs du passé composé ; troisième partie, stratégie d'exploration contextuelle. Nous montrons qu'un traitement automatique des langues naturelles visant à construire des représentations sémantiques des temps est possible en utilisant que des informations linguistiques contextuelles, celles-ci exprimant un savoir grammatical et non pas un savoir sur le monde externe. Notre approche linguistique a été implémentée sur machine à l'aide d'un générateur de système experts "snark"
We present a model solving the problem of tense and aspect in the French language, detail research of "passé compose". There are three parties in this thesis: first, generality and theoric concept second ; values of "passé compose" in French; third: strategie of contextual exploration. Its shows that a natural language processing the aim of which is to build semantic representations of tenses is possible thanks to only linguistic data without using any other knowledge of the world. This linguistic approach has been implemented by a generator of expert system called "snark"
6

Paumier, Sébastien. "De la reconnaissance des formes linguistiques à l'analyse syntaxique." Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des descriptions des langues naturelles consistent en une accumulation de règles décrivant le comportement des différents éléments du langage. Cependant, si beaucoup de règles générales ont été établies, leurs exceptions n'ont pratiquement pas été étudiées, ce qui fait que ces descriptions sont incomplètes, voire erronées lorsque le nombre de cas particuliers n'est pas négligeable. Pour remédier à cela, un examen minutieux des phrases élémentaires du français a été mené au LADL. Ces travaux ont abouti à une description très fine des propriétés syntaxiques de ces phrases, codée sous la forme de matrices appelées tables de lexique-grammaire. En 1993, il a été montré que l'on pouvait exploiter les données de ces tables pour effectuer l'analyse automatique de phrases simples. Nous avons étudié un moyen d'étendre ces travaux, de façon à traiter exhaustivement les données du lexique-grammaire, afin de pouvoir analyser n'importe quelle phrase simple du français. Le traitement complet de toutes ces constructions est une opération qui prendra beaucoup de temps, ce qui nous a conduit à nous poser la question de la maintenance de données à long terme. Nous avons ainsi pris le parti d'utiliser un formalisme de description très simple, celui des grammaires locales, afin que les données soient représentées d'une façon la plus claire possible, et qu'elles puissent être maintenues facilement. Dans un premier temps, nous avons testé la puissance de description de notre modèle, à travers l'examen de diverses constructions. Bien que simple, il s'est avéré bien adapté à la description de structures syntaxiques, et a mis en évidence le fait que la distinction entre la recherche de motifs et l'analyse syntaxique n'est qu'une question d'échelle de description. En contrepartie de cette simplicité, nous avons du faire face aux problèmes informatique soulevés par l'exploitation de nos grammaires, en particulier à cause des ordres de grandeur atteints par les données accumulées. Nous avons donc étudié dans un second temps différentes méthodes permettant de manipuler ces données, les unes mettant en jeu des transformations opérant sur les grammaires, les autres concernant les programmes destinés à les appliquer. Les résultats que nous avons obtenus montrent que notre modèle est viable, et que l'accumulation des grammaires décrivant toutes les structures de phrases simples du français est réalisable, ce qui devrait permettre, à terme, d'obtenir un analyseur syntaxique exact pour ces constructions
Most of natural language descriptions are made of sets of rules modelling the behavior of words. However, whereas many general rules have been established, exceptions to these rules are not often studied. Consequently, these rules are incomplete, and even inaccurate when the number of particular cases is too large. To solve this problem, the LADL team has studied in detail basic sentences of French. This work led to a very fine description of the syntactic properties of these sentences, stored in matrices called lexicon-grammar tables. In 1993, the proof was made by Emmanuel Roche that these data could be used to perform automatic parsing. We have studied a way to extend this work, in order to take into account the whole data contained in lexicon-grammar tables, so that we could analyse any basic sentence of French. As this study will take a long time, we had to address the issue of maintenance of data through a long period of time. In fact, we tried to make the formalism to design our grammars as simple as possible, so that they would be easily maintained. In a first step, we verified that this formalism was powerful enough, through the examination of several syntactic structures. We have shown that this formalism, though simple, was adapted to syntactic description and parsing, which suggests that the difference between pattern matching and syntactic analysis is just a matter of scale. In return, we had to solve computational problems, mainly related due to the huge amount of data we had to deal with. So, in a second step, we studied methods to handle these data in reasonable time, either by transforming grammars or by optimizing programs. Our results show that our model is reliable, and so, that it is possible to build an exploitable set of grammars describing all the basic sentences of French. They show the way for efficient syntactic parsers for these constructions
7

EL, HAROUCHY ZAHRA. "Dictionnaire et grammaire pour le traitement automatique des ambiguites morphologiques des mots simples en francais." Besançon, 1997. http://www.theses.fr/1997BESA1010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En analyse automatique d'un texte, une des premieres etapes consiste a determiner les categories grammaticales des mots. Pour ce faire; un dictionnaire a ete cree sur la base d'une reconnaissance de la ou des categories grammaticales des mots simples a partir de leur terminaison. Ce dictionnaire que nous appelons dictionnaire automatique est un ensemble de regles generales (qui peuvent comprendre des sous-regles). Une regle generale enonce une terminaison. Un operateur (la ou les categories grammaticales) est associe a chaque regle. Nous avons par exemple la regle generale suivante : "les mots termines par 'able' sont des adjectifs". Comme exceptions (ou sous-regles) a cette regle generale, nous avons des noms ("cartable,. . . "), des verbes conjugues ("accable,. . . ") et des ambiguites morphologiques de type "nom et verbe conjugue (comme "sable table,. . . ") et des ambiguites de type "nom et adjectif" (comme comptable ,. . . ). Des lors un tel dictionnaire met en evidence les mots possedant plusieurs categories grammaticales. Lorsque le dictionnaire automatique detecte dans un texte un mot polycategoriel, il y a renvoi a la grammaire qui se charge de lever les ambiguites morphologiques par un examen du contexte immediat. Les regles de la grammaire fonctionnent comme un ensemble de combinaisons possibles d'elements pouvant suivre et/ou preceder la forme ambigue (par exemple une regle annonce qu'une forme ambigue de type "pronom ou article" precedee de "a cause de" est alors un article)
When carrying out the automatic analysis of a text, one of the first stages consists in determining the grammatical categories of the words. In order to do this, a dictionary has been designed which recognises the one or several grammatical categories of non-compound words from their endings. This dictionary, which we have called automatic dictionary, is a collection of general rules (which can consist of sub- rules). A general rule sets forth an ending. An operator (the one or several grammatical categories) is associated with each rule. For example, we have the following general rule: +words ending in 'able' are adjectives;. Examples of exceptions to (or sub-rules) of this general rule are nouns such as (+cartable ;), conjugated verbs like (+ accable ;), and morphological ambiguities such as + noun and conjugated verb (like +sable;, +table. . . ;), and ambiguities such as + adjectival nouns ;(like, for example, + comptable ;. . . ) consequently, this sort of dictionary gives prominence to those words posessing several grammatical categories. When the automatic dictionary detects a word posessing several categories, the grammar system is consulted,of which the role is to pick out the morphological ambiguities by studying the immediate context. The rules in the grammar system work like a group of possible combinations of elements capable of going after and-or before the ambiguous form ( for example, a rule states that an ambiguous form such as + pronoun or article ; preceded by + a cause de ; is, in fact, an article)
8

Diakité, Mohamed Lamine. "Relations entre les phrases : contribution à la représentation sémantique des textes pour la compréhension automatique du langage naturel." Dijon, 2005. http://www.theses.fr/2005DIJOS025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail décrit dans cette thèse présente une approche de représentation sémantique des textes pour contribuer à une compréhension automatique du langage naturel. L'approche que nous avons proposée est fondée sur le constat de la nécessité de disposer des connaissances sur les textes analysés pour pouvoir dégager leur sens. Nous avons donc proposé une approche d'acquisition semi-automatique de connaissances à partir des textes. L'acquisition de ces connaissances est guidée par une hiérarchie de classes d'entités organisées dans une ontologie. En nous appuyant également sur le principe de la sémantique compositionnelle, nous avons proposé d'identifier les relations entre les différentes entités du texte. Nous nous sommes notamment intéressés au problème d'anaphores pronominales pour lequel nous avons proposé une méthode de résolution
The work described in this thesis presents an approach of semantic representation of texts to contribute to an automatic comprehension of the natural language. The proposed approach is based on the evidence of the need for knowledge on the analyzed texts in order to discover their meaning. We thus proposed a semi-automatic approach of knowledge acquisition from texts. This acquisition is guided by a hierarchy of classes of entities organized in an ontology. Based on the principle of compositional semantic, we propose to identify relations between different entities of the text. We were interested in particular in the problem of pronominal anaphora for which we proposed a resolution method
9

Timimi, Ismaïl. "De la paraphrase linguistique à la recherche d'information, le système 3 AD : théorie et implantation (aide à l'analyse automatique du discours)." Grenoble 3, 1999. http://www.theses.fr/1999GRE39025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Chercheurs et praticiens sont souvent confrontes a une double exigence : d'une part, le recueil de donnees textuelles provenant de differents corpus et bases documentaires ; d'autre part, le developpement d'outils d'informatiques destines a la gestion et a l'analyse de ces donnees. Comme contribution au rapprochement de ces deux volets, nous explorons dans ce travail, l'analyse de l'information discursive a partir d'un modele algebrique, ameliore par des formalismes linguistiques. Nous presentons la theorie de la methode definie ainsi que l'implantation du logiciel afferent, dit 3ad (aide a l'analyse automatique du discours). Dans une premiere partie, nous introduisons d'abord un rappel sur la theorie de la paraphrase, (application d'origine de 3ad). Ensuite, nous presentons les algorithmes mathematiques de 3ad. Ils calculent des distances entre les differentes phrases du corpus, a partir de matrices de couts liees aux operations classiques sur les mots : insertion, effacement et substitution. De facon generale, plus le nombre de mots communs a deux phrases est grand, plus la distance est petite, et par suite, plus elles seront en paraphrase. L'integration des outils graphiques del'analyse des donnees multidimensionnelles permet de visualiser sur des cartes, la disposition des phrases au sein des classes de paraphrases. Enfin, nous developpons un formalisme linguistique pour augmenter les performances de cette approche numerique. Ce formalisme integre plusieurs niveaux d'analyse en tal (morphologie, segmentation, syntaxe, semantique). Dans une seconde partie, nous proposons une autre facette du systeme 3ad, orientee vers une nouvelle application, qu'est la recherche d'information et ses derives. Nous montrons comment utiliser le systeme 3ad, comme un outil d'aide a la representation du contenu du document (extraction, filtrage et resume automatique) ; comment le systeme 3ad contribue a synthetiser les documents volumineux et apparier ces syntheses avec des requetes ; comment utiliser 3ad comme un outil de classification automatique (avec des scores pour chaque requete) ; comment 3ad peut cooperer avec un generateur de paraphrases en langue naturelle, pour les reformulations de requetes (en vue d'endiguer le bruit et le silence). Nous finirons par esquisser des possibilites de developpement de 3ad. Ces possibilites visent a relever un defi pour la ri, a savo
10

Fort, Karën. "Les ressources annotées, un enjeu pour l’analyse de contenu : vers une méthodologie de l’annotation manuelle de corpus." Paris 13, 2012. http://scbd-sto.univ-paris13.fr/intranet/edgalilee_th_2012_fort.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’annotation manuelle de corpus est devenue un enjeu fondamental pour le Traitement Automatique des Langues (TAL). En effet, les corpus annotés sont utilisés aussi bien pour créer que pour évaluer des outils de TAL. Or, le processus d’annotation manuelle est encore mal connu et les outils proposés pour supporter ce processus souvent mal utilisés, ce qui ne permet pas de garantir le niveau de qualité de ces annotations. Nous proposons dans cette thèse une vision unifiée de l’annotation manuelle de corpus pour le TAL. Ce travail est le fruit de diverses expériences de gestion et de participation à des campagnes d’annotation, mais également de collaborations avec différents chercheur(e)s. Nous proposons dans un premier temps une méthodologie globale pour la gestion de campagnes d’annotation manuelle de corpus qui repose sur deux piliers majeurs : une organisation des campagnes d’annotation qui met l’évaluation au coeur du processus et une grille d’analyse des dimensions de complexité d’une campagne d’annotation. Un second volet de notre travail a concerné les outils du gestionnaire de campagne. Nous avons pu évaluer l’influence exacte de la pré-annotation automatique sur la qualité et la rapidité de correction humaine, grâce à une série d’expériences menée sur l’annotation morpho-syntaxique de l’anglais. Nous avons également apporté des solutions pratiques concernant l’évaluation de l’annotation manuelle, en donnant au gestionnaire les moyens de sélectionner les mesures les plus appropriées. Enfin, nous avons mis au jour les processus en oeuvre et les outils nécessaires pour une campagne d’annotation et instancié ainsi la méthodologie que nous avons décrite
Manual corpus annotation has become a key issue for Natural Langage Processing (NLP), as manually annotated corpora are used both to create and to evaluate NLP tools. However, the process of manual annotation remains underdescribed and the tools used to support it are often misused. This situation prevents the campaign manager from evaluating and guarantying the quality of the annotation. We propose in this work a unified vision of manual corpus annotation for NLP. It results from our experience of annotation campaigns, either as a manager or as a participant, as well as from collaborations with other researchers. We first propose a global methodology for managing manual corpus annotation campaigns, that relies on two pillars: an organization for annotation campaigns that puts evaluation at the heart of the process and an innovative grid for the analysis of the complexity dimensions of an annotation campaign. A second part of our work concerns the tools of the campaign manager. We evaluated the precise influence of automatic pre-annotation on the quality and speed of the correction by humans, through a series of experiments on part-of-speech tagging for English. Furthermore, we propose practical solutions for the evaluation of manual annotations, that proche che vide the campaign manager with the means to select the most appropriate measures. Finally, we brought to light the processes and tools involved in an annotation campaign and we instantiated the methodology that we described

Books on the topic "Traitement automatique du langage naturel – Linguistique – Informatique":

1

Wilks, Yorick. Electric words: Dictionaries, computers, and meanings. Cambridge, Mass: MIT Press, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Gal, A. Prolog pour l'analyse automatique du langage naturel. Paris: Eyrolles, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sabah, Gerard. L' intelligence artificielle et le langage. 2nd ed. Paris: Hermes, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Powers, David M. W. Machine learning of natural language. London: Springer-Verlag, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Grune, Dick. Parsing techniques: A practical guide. New York: Ellis Horwood, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

N, Leech Geoffrey, Myers Greg 1954-, and Thomas Jenny 1948-, eds. Spoken English on computer: Transcription, mark-up, and application. Harlow, essex, England: Longman, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Adalı, Eşref. Türkçe doğal dil ișleme. Ankara: Akçağ Basım Yayım, 2020.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

ARPA Human Language Technology Workshop (1994 Plainsboro, N.J.). Human language technology: Proceedings of a workshop held at Plainsboro, N.J., March 8-11, 1994. San Francisco, Cal: Morgan Kaufmann, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Asker, Zadeh Lotfi, and Kacprzyk Janusz, eds. Computing with words in information/intelligent systems. New York: Physica-Verlag, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Appelt, Douglas E. Planning English sentences. Cambridge [Cambridgeshire]: Cambridge University Press, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Traitement automatique du langage naturel – Linguistique – Informatique":

1

Gicquel, Quentin, Denys Proux, Pierre Marchal, Caroline Hagége, Yasmina Berrouane, Stéfan J. Darmoni, Suzanne Pereira, Frédérique Segond, and Marie-Héléne Metzger. "Évaluation d’un outil d’aide á l’anonymisation des documents médicaux basé sur le traitement automatique du langage naturel." In Informatique et Santé, 165–76. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography