Auswahl der wissenschaftlichen Literatur zum Thema „Traitement Automatique des Langues cliniques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Traitement Automatique des Langues cliniques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Traitement Automatique des Langues cliniques"

1

Gilloux, Michel. „Traitement automatique des langues naturelles“. Annales Des Télécommunications 44, Nr. 5-6 (Mai 1989): 301–16. http://dx.doi.org/10.1007/bf02995675.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Haralambous, Yannis, und John Plaice. „Traitement automatique des langues et composition sous \Omega“. Cahiers GUTenberg, Nr. 39-40 (2001): 139–66. http://dx.doi.org/10.5802/cg.299.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Silberztein, Max. „Linguistique et Traitement Automatique des Langues: une coopération nécessaire“. Langues & Parole 5 (30.11.2020): 43–66. http://dx.doi.org/10.5565/rev/languesparole.63.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui, la plupart des applications logicielles du Traitement Automatique des Langues (analyse du discours, extraction d’information, moteurs de recherche, etc.) analysent les textes comme étant des séquences de formes graphiques. Mais les utilisateurs de ces logiciels cherchent typiquement des unités de sens : concepts, entités, relations dans leurs textes. Il faut donc établir une relation entre les formes graphiques apparaissant dans les textes et les unités de sens qu’elles représentent. Cette mise en relation nécessite des ressources et des méthodes de traitement linguistiques, que je présente ici.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Poibeau, Thierry. „Le traitement automatique des langues pour les sciences sociales“. Réseaux 188, Nr. 6 (2014): 25. http://dx.doi.org/10.3917/res.188.0025.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Zemni, Bahia, Farouk Bouhadiba und Mimouna Zitouni. „Recherche cognitive et traduction automatique en jurilinguistique“. Texto Livre: Linguagem e Tecnologia 15 (18.10.2021): e27031. http://dx.doi.org/10.35699/1983-3652.2022.27031.

Der volle Inhalt der Quelle
Annotation:
De par ses caractéristiques morpho-phonologiques, morphosyntaxiques, lexicales et autres systèmes et sous-systèmes de son fonctionnement, la langue arabe représente un système de non-concaténation (ou non-enchaînement des morphèmes). Elle diffère dans ce sens des langues Indo-européennes – à systèmes de concaténation – et demeure pour ainsi dire, une langue assez complexe à gérer dans le domaine du Traitement Automatique des Langues(TAL). Ceci, surtout lorsqu’il s’agit de traduire automatiquement des faits de langue porteurs d’éléments culturels propres à cette langue. Les données examinées dans cet article sont révélatrices de hiatus quant à la traduction automatique de textes juridiques arabes vers d’autres langues telles que le français ou l’anglais. L’apparentement génétique différent des langues en question pose non seulement des problèmes d’ordre linguistique dans le passage d’une langue vers une autre, mais aussi et surtout que les textes juridiques en langue arabe sont porteurs de poids sémantiques, culturels, religieux et civilisationnels qui ne reflètent pas toujours les mêmes référents ou gestalt des langues cibles. Il en est conclu que l’intervention humaine dans ce processus de traduction est plus que nécessaire comme le révèle l’étude des cas de textes juridiques en Arabie Saoudite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Frath, Pierre. „Quelle sémantique pour le tal ?“ Scolia 11, Nr. 1 (1998): 39–68. http://dx.doi.org/10.3406/scoli.1998.976.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des langues semble largement reposer sur une vision positiviste du sens, pour laquelle un sens complexe est composé de sens plus élémentaires agencés par des règles, des prédicats abstraits ou des mécanismes. Les sémantiques de ce type produisent des univers sémantiques clos entièrement codés, particulièrement intéressants pour certaines applications en TAL. C'est le cas de la sémantique générative, dont nous étudions ici un des exemples emblématiques, celui du verbe commencer. Nous examinons ensuite un grand nombre d’occurrences du verbe begin dans divers corpus. Les résultats de cet examen nous amènent ensuite à nous interroger sur la nécessité d'une sémantique de la performance pour le traitement automatique de corpus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Paroubek, Patrick, und Joseph Mariani. „De l’évaluation et ses ressources en traitement automatique des langues“. Revue française de linguistique appliquée XXIV, Nr. 1 (2019): 95. http://dx.doi.org/10.3917/rfla.241.0095.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Da Sylva, Lyne. „Nouveaux horizons en indexation automatique de monographies“. Documentation et bibliothèques 48, Nr. 4 (08.05.2015): 155–67. http://dx.doi.org/10.7202/1030353ar.

Der volle Inhalt der Quelle
Annotation:
Quel est l’état de la question en indexation automatique de monographies ? Bien que les premières tentatives d’indexation automatique datent du début des années 1960, elles n’ont toujours pas abouti à des systèmes satisfaisants du point de vue des indexeurs professionnels.Pourtant il y a lieu de s’interroger sur les possibilités actuelles d’indexation automatique, compte tenu du nombre croissant de documents numériques pour lesquels il serait intéressant de fournir un index comme celui qu’on trouve à la fin d’un livre (back-of-the-book index). En outre, les quinze dernières années ont vu des innovations importantes dans le domaine du traitement automatique des langues (TAL), qui pourraient avoir des applications avantageuses pour l’indexation automatique de monographies. Cet article propose de définir la problématique et d’identifier les nouvelles pistes de solutions à explorer afin de dépasser les performances des systèmes actuellement offerts pour l’indexation automatique de monographies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gross, Gaston, und Michel Mathieu-Colas. „Description de la langue de la médecine“. Meta 46, Nr. 1 (02.10.2002): 68–81. http://dx.doi.org/10.7202/002976ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le traitement automatique des langues de spécialité exige une description qui rende compte de son fonctionnement. Le travail descriptif s'appuie sur la notion de phrase et l'établissement de la liste de tous les prédicats, ainsi que sur la détermination des arguments pour situer les emplois. L'article présente les diverses étapes de description illustrées par de nombreux exemples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Schuurman, Ineke. „Eurotra: the Philosophy Behind it“. Meta 39, Nr. 1 (30.09.2002): 176–83. http://dx.doi.org/10.7202/004059ar.

Der volle Inhalt der Quelle
Annotation:
Résumé La Communauté européenne a lancé un programme de recherche et développement portant sur le traitement des langues naturelles et plus spécifiquement sur la traduction automatique. Ce programme, Eurotra, s'est achevé à la fin de 1992. La première partie de cet article présente les fondements de ce programme et la deuxième, la philosophie sousjacente au projet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Traitement Automatique des Langues cliniques"

1

Grouin, Cyril. „Anonymisation de documents cliniques : performances et limites des méthodes symboliques et par apprentissage statistique“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00848672.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur l'anonymisation automatique de comptes rendus cliniques. L'anonymisation consiste à masquer les informations personnelles présentes dans les documents tout en préservant les informations cliniques. Cette étape est obligatoire pour utiliser des documents cliniques en dehors du parcours de soins, qu'il s'agisse de publication de cas d'étude ou en recherche scientifique (mise au point d'outils informatiques de traitement du contenu des dossiers, recherche de cas similaire, etc.). Nous avons défini douze catégories d'informations à traiter : nominatives (noms, prénoms, etc.) et numériques (âges, dates, codes postaux, etc.). Deux approches ont été utilisées pour anonymiser les documents, l'une dite " symbolique ", à base de connaissances d'expert formalisées par des expressions régulières et la projection de lexiques, l'autre par apprentissage statistique au moyen de CRF de chaîne linéaire. Plusieurs expériences ont été menées parmi lesquelles l'utilisation simple ou enchaînée de chacune des deux approches. Nous obtenons nos meilleurs résultats (F-mesure globale=0,922) en enchaînant les deux méthodes avec rassemblement des noms et prénoms en une seule catégorie (pour cette catégorie : rappel=0,953 et F-mesure=0,931). Ce travail de thèse s'accompagne de la production de plusieurs ressources : un guide d'annotation, un corpus de référence de 562 documents dont 100 annotés en double avec adjudication et calculs de taux d'accord inter-annotateurs (K=0,807 avant fusion) et un corpus anonymisé de 17000 comptes rendus cliniques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Bannour, Nesrine. „Information Extraction from Electronic Health Records : Studies on temporal ordering, privacy and environmental impact“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG082.

Der volle Inhalt der Quelle
Annotation:
L'extraction automatique des informations contenues dans les Dossiers Patients Informatisés (DPIs) est cruciale pour améliorer la recherche clinique. Or, la plupart des informations sont sous forme de texte non structuré. La complexité et le caractère confidentiel du texte clinique présente des défis supplémentaires. Par conséquent, le partage de données est difficile dans la pratique et est strictement encadré par des réglementations. Les modèles neuronaux offrent de bons résultats pour l'extraction d'informations. Mais ils nécessitent de grandes quantités de données annotées, qui sont souvent limitées, en particulier pour les langues autres que l'anglais. Ainsi, la performance n'est pas encore adaptée à des applications pratiques. Outre les enjeux de confidentialité, les modèles d'apprentissage profond ont un important impact environnemental. Dans cette thèse, nous proposons des méthodes et des ressources pour la Reconnaissance d'entités nommées (REN) et l'extraction de relations temporelles dans des textes cliniques en français.Plus précisément, nous proposons une architecture de modèles préservant la confidentialité des données par mimétisme permettant un transfert de connaissances d'un modèle enseignant entraîné sur un corpus privé à un modèle élève. Ce modèle élève pourrait être partagé sans révéler les données sensibles ou le modèle privé construit avec ces données. Notre stratégie offre un bon compromis entre la performance et la préservation de la confidentialité. Ensuite, nous introduisons une nouvelle représentation des relations temporelles, indépendante des événements et de la tâche d'extraction, qui permet d'identifier des portions de textes homogènes du point de vue temporel et de caractériser la relation entre chaque portion du texte et la date de création du document. Cela rend l'annotation et l'extraction des relations temporelles plus facile et reproductible à travers différents types d'événements, vu qu'aucune définition et extraction préalable des événements n'est requise.Enfin, nous effectuons une analyse comparative des outils existants de mesure d'empreinte carbone des modèles de TAL. Nous adoptons un des outils étudiés pour calculer l'empreinte carbone de nos modèles, en considérant que c'est une première étape vers une prise de conscience et un contrôle de leur impact environnemental. En résumé, nous générons des modèles de REN partageables préservant la confidentialité que les cliniciens peuvent utiliser efficacement. Nous démontrons également que l'extraction de relations temporelles peut être abordée indépendamment du domaine d'application et que de bons résultats peuvent être obtenus en utilisant des données d'oncologie du monde réel
Automatically extracting rich information contained in Electronic Health Records (EHRs) is crucial to improve clinical research. However, most of this information is in the form of unstructured text.The complexity and the sensitive nature of clinical text involve further challenges. As a result, sharing data is difficult in practice and is governed by regulations. Neural-based models showed impressive results for Information Extraction, but they need significant amounts of manually annotated data, which is often limited, particularly for non-English languages. Thus, the performance is still not ideal for practical use. In addition to privacy issues, using deep learning models has a significant environmental impact.In this thesis, we develop methods and resources for clinical Named Entity Recognition (NER) and Temporal Relation Extraction (TRE) in French clinical narratives.Specifically, we propose a privacy-preserving mimic models architecture by exploring the mimic learning approach to enable knowledge transfer through a teacher model trained on a private corpus to a student model. This student model could be publicly shared without disclosing the original sensitive data or the private teacher model on which it was trained. Our strategy offers a good compromise between performance and data privacy preservation.Then, we introduce a novel event- and task-independent representation of temporal relations. Our representation enables identifying homogeneous text portions from a temporal standpoint and classifying the relation between each text portion and the document creation time. This makes the annotation and extraction of temporal relations easier and reproducible through different event types, as no prior definition and extraction of events is required.Finally, we conduct a comparative analysis of existing tools for measuring the carbon emissions of NLP models. We adopt one of the studied tools to calculate the carbon footprint of all our created models during the thesis, as we consider it a first step toward increasing awareness and control of their environmental impact.To summarize, we generate shareable privacy-preserving NER models that clinicians can efficiently use. We also demonstrate that the TRE task may be tackled independently of the application domain and that good results can be obtained using real-world oncology clinical notes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Tirilly, Pierre. „Traitement automatique des langues pour l'indexation d'images“. Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00516422.

Der volle Inhalt der Quelle
Annotation:
Bien que s'inscrivant dans un cadre global de recherche d'information (RI) classique, l'indexation d'image ne tire que peu parti des nombreux travaux existants en RI textuelle et en traitement automatique des langues (TAL). Nous identifions deux niveaux auxquels de tels travaux peuvent s'intégrer aux systèmes d'indexation d'images. Le premier niveau est celui de la description du contenu visuel des images. Pour y intégrer des techniques de TAL, nous adoptons la description des images par mots visuels proposée par Sivic et Zisserman. Cette représentation soulève deux problématiques similaires aux problématiques classiques de la RI textuelle~: le choix des termes d'indexation les plus pertinents pour décrire les documents et la prise en compte des relations entre ces termes. Pour répondre à la première de ces problématiques nous proposons une étude des stop-lists et des pondérations dans le cadre de l'indexation d'images. Cette étude montre que, contrairement au cas des textes, il n'existe pas de pondération optimale pour tous types de requêtes, et que la pondération doit être choisie en fonction de la requête. Pour la seconde, nous utilisons des modèles de langues, outil classique du TAL que nous adaptons au cas des images, pour dépasser l'hypothèse d'indépendance des termes dans un cadre de classification d'images. Nos expérimentations montrent que prendre en compte des relations géométriques entre mots visuels permet d'améliorer les performances des systèmes. Le second niveau étudié est l'indexation sémantique des images : il est possible d'utiliser des méthodes de TAL sur des textes accompagnant les images pour obtenir des descriptions textuelles de celles-ci. Dans un premier temps, nous montrons que les descripteurs classiques d'images ne permettent pas d'obtenir des systèmes d'annotation d'images efficaces. Puis nous proposons une méthode d'annotation qui contourne cet écueil en se basant sur des descripteurs textuels et visuels de haut-niveau~: nous extrayons des textes des entités nommées, que nous mettons en relation avec des concepts visuels détectés dans les images afin d'annoter celles-ci. Nous validons notre approche sur un corpus réel et de grande taille composé d'articles de presse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Tirilly, Pierre. „Traitement automatique des langues pour l'indexation d'images“. Phd thesis, Rennes 1, 2010. http://www.theses.fr/2010REN1S045.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons, dans cette thèse, à l'usage du traitement automatique des langues (TAL) dans les systèmes d'indexation d'images. Au niveau de la description du contenu visuel des images, nous nous appuyons sur la description des images sous forme de mots visuels, qui pose des problématiques similaires à celles de l'indexation textuelle. Nous utilisons des méthodes de TAL (pondérations et stop-lists) afin de déterminer les mots visuels pertinents, puis nous utilisons les modèles de langues pour prendre en compte certaines relations géométriques entre mots visuels. Au niveau de la description du contenu sémantique des images, nous proposons une méthode d'annotation d'images basée sur l'extraction d'entités nommées pertinentes dans des textes accompagnant les images à annoter
In this thesis, we propose to integrate natural language processing (NLP) techniques in image indexing systems. We first address the issue of describing the visual content of images. We rely on the visual word-based image description, which raises problems that are well known in the text indexing field. First, we study various NLP methods (weighting schemes and stop-lists) to automatically determine which visual words are relevant to describe the images. Then we use language models to take account of some geometrical relations between the visual words. We also address the issue of describing the semantic content of images: we propose an image annotation scheme that relies on extracting relevant named entities from texts coming with the images to annotate
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Colin, Émilie. „Traitement automatique des langues et génération automatique d'exercices de grammaire“. Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0059.

Der volle Inhalt der Quelle
Annotation:
Le thème support de cette thèse la génération de paraphrases sur support neuronal. Nos perspectives sont éducatives : créer des exercices de grammaire pour le français. La paraphrase est une opération de reformulation. Nos travaux tendent à attester que les modèles séquence vers séquence ne sont pas de simples répétiteurs mais peuvent apprendre la syntaxe. Nous avons montré, en combinant divers modèles, que la représentation de l'information sous de multiples formes (en utilisant de la donnée formelle (RDF), couplée à du texte pour l'étendre ou le réduire, ou encore seulement du texte) permet d'exploiter un corpus sous différents angles, augmentant la diversité des sorties, exploitant les leviers syntaxiques mis en place. Nous nous sommes penchée sur un problème récurrent, celui de la qualité des données, et avons obtenu des paraphrases avec une haute adéquation syntaxique (jusqu'à 98% de couverture de la demande) et un très bon niveau linguistique. Nous obtenons jusqu'à 83.97 points de BLEU*, 78.41 de plus que la moyenne de nos lignes de base, sans levier syntaxique. Ce taux indique un meilleur contrôle des sorties, pourtant variées et de bonne qualité en l'absence de levier. Nous avons ensuite travaillé depuis du texte brut en passant, pour la génération de phrases, par la production d'une représentation du sens de ce texte qui puisse servir d'entrée à la génération de paraphrases. Le passage à du texte en français était aussi pour nous un impératif. Travailler depuis du texte brut, en automatisant les procédures, nous a permis de créer un corpus de plus de 450 000 couples représentations/phrases, grâce auquel nous avons appris à générer des textes massivement corrects (92% sur la validation qualitative). Anonymiser ce qui n'est pas fonctionnel a participé notablement à la qualité des résultats (68.31 de BLEU, soit +3.96 par rapport à la ligne de base, qui était la génération depuis des données non anonymisées). La représentation formelle de l'information dans un cadre linguistique particulier à une langue est une tâche ardue. Cette thèse offre des pistes de méthodes pour automatiser cette opération. Par ailleurs, nous n'avons pu traiter que des phrases relativement courtes. L'utilisation de modèles neuronaux plus récents permettrait sans doute d'améliorer les résultats. Enfin, l'usage de traits adéquats en sortie permettrait des vérifications poussées. *BLEU (Papineni et al., 2002) : qualité d'un texte sur une échelle de 0 (pire) à 100 (meilleur)
Our perspectives are educational, to create grammar exercises for French. Paraphrasing is an operation of reformulation. Our work tends to attest that sequence-to-sequence models are not simple repeaters but can learn syntax. First, by combining various models, we have shown that the representation of information in multiple forms (using formal data (RDF), coupled with text to extend or reduce it, or only text) allows us to exploit a corpus from different angles, increasing the diversity of outputs, exploiting the syntactic levers put in place. We also addressed a recurrent problem, that of data quality, and obtained paraphrases with a high syntactic adequacy (up to 98% coverage of the demand) and a very good linguistic level. We obtain up to 83.97 points of BLEU-4*, 78.41 more than our baseline average, without syntax leverage. This rate indicates a better control of the outputs, which are varied and of good quality in the absence of syntax leverage. Our idea was to be able to work from raw text : to produce a representation of its meaning. The transition to French text was also an imperative for us. Working from plain text, by automating the procedures, allowed us to create a corpus of more than 450,000 sentence/representation pairs, thanks to which we learned to generate massively correct texts (92% on qualitative validation). Anonymizing everything that is not functional contributed significantly to the quality of the results (68.31 of BLEU, i.e. +3.96 compared to the baseline, which was the generation of text from non-anonymized data). This second work can be applied the integration of a syntax lever guiding the outputs. What was our baseline at time 1 (generate without constraint) would then be combined with a constrained model. By applying an error search, this would allow the constitution of a silver base associating representations to texts. This base could then be multiplied by a reapplication of a generation under constraint, and thus achieve the applied objective of the thesis. The formal representation of information in a language-specific framework is a challenging task. This thesis offers some ideas on how to automate this operation. Moreover, we were only able to process relatively short sentences. The use of more recent neural modelswould likely improve the results. The use of appropriate output strokes would allow for extensive checks. *BLEU : quality of a text (scale from 0 (worst) to 100 (best), Papineni et al. (2002))
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dary, Franck. „Modèles incrémentaux pour le traitement automatique des langues“. Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0248.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le domaine du traitement automatique de la langue, elle concerne plus particulièrement la prédiction de la structure syntaxico morphologique des phrases.Il s'agit donc, à partir d'un texte, de découper ce dernier en phrases puis en mots et d'associer aux mots une partie de discours et des traits morphologiques puis de relier les mots pour expliciter la structure syntaxique.La thèse propose un modèle de prédiction qui permet de réaliser ces tâches simultanément et de manière incrémentale : le texte est lu caractère par caractère et l'intégralité des prédictions linguistiques sont mises à jour par l'information apportée par chaque nouveau caractère.La raison pour laquelle nous avons exploré cette architecture est la volonté de s'inspirer de la lecture humaine qui impose ces deux contraintes.D'un point de vue expérimental, nous calculons la corrélation entre des variables oculométriques mesurées sur des sujets humains et des mesures de complexité propre à notre modèle.De plus, nous proposons un mécanisme de retour arrière, inspiré des saccades régressives observées chez l'humain. Pour cela, nous utilisons l'apprentissage par renforcement, qui permet au modèle d'effectuer des retours arrières lorsqu'il se trouve dans une impasse
This thesis is about natural language processing, and more specifically concerns the prediction of the syntactic-morphological structure of sentences.This is the matter of segmenting a text into sentences and then into words and associating to each word a part of speech and morphological features and then linking the words to make the syntactic structure explicit.The thesis proposes a predictive model that performs these tasks simultaneously and in an incremental fashion: the text is read character by character and the entire linguistic predictions are updated by the information brought by each new character.The reason why we have explored this architecture is the will to be inspired by human reading which imposes these two constraints.From an experimental point of view, we compute the correlation between eye-tracking variables measured on human subjects and complexity metrics specific to our model.Moreover, we propose a backtracking mechanism, inspired by the regressive saccades observed in humans. To this end, we use reinforcement learning, which allows the model to perform backtracking when it reaches a dead end
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Denoual, Etienne. „Méthodes en caractères pour le traitement automatique des langues“. Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00107056.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.
Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.

Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.
Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.
Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.
Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Pellegrino, François. „Une approche phonétique en identification automatique des langues“. Toulouse 3, 1998. http://www.theses.fr/1998TOU30294.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Moreau, Fabienne. „Revisiter le couplage traitement automatique des langues et recherche d'information“. Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524514.

Der volle Inhalt der Quelle
Annotation:
La principale difficulté des systèmes de recherche d'information (SRI) est d'établir une correspondance entre l'information recherchée par un utilisateur et celle contenue dans leur base documentaire. Pour y parvenir, ils tentent généralement un appariement des mots de la requête posée avec ceux représentant le contenu des documents. Un tel mécanisme, fondé sur une simple comparaison de chaînes de caractères, ne permet cependant pas de prendre en compte le fait qu'un même mot peut posséder plusieurs sens et qu'une même idée peut être formulée de différentes manières. Pour pallier ces difficultés, une solution assez naturelle est de se tourner vers le traitement automatique des langues (TAL) qui, en considérant les mots non comme des chaînes de caractères mais comme des entités linguistiques à part entière, doit offrir un appariement requête-document plus pertinent. Les résultats des nombreux travaux proposant d'enrichir la RI par des informations linguistiques sont toutefois souvent décevants, peu tranchés et contradictoires. Pour comprendre ces faibles résultats et savoir comment les améliorer, nous abordons le couplage TAL-RI sous des angles nouveaux. Contrairement aux autres études, nous choisissons d'exploiter pleinement la richesse de la langue en combinant plusieurs informations linguistiques appartenant aux niveaux morphologique, syntaxique et sémantique. Afin de tester l'intérêt de coupler ces informations, nous proposons une plate-forme intégrant en parallèle ces multiples indices ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces connaissances, et, via une analyse originale des corrélations qu'elles présentent, des cas de complémentarité intéressants. Grâce à une méthode d'apprentissage supervisé qui fusionne les listes de résultats fournis par chaque index linguistique et s'adapte automatiquement aux caractéristiques des requêtes, nous prouvons, par des résultats plus stables qu'habituellement, le gain effectif du couplage d'informations linguistiques multi-niveaux. Enfin, nous proposons une méthode novatrice d'acquisition par apprentissage non supervisé d'informations morphologiques qui permet d'accroître encore l'impact de ces connaissances efficaces sur les performances de notre SRI. Nous montrons ainsi qu'en construisant des outils plus souples et plus adaptés aux contraintes de la RI, l'apport du TAL dans ce domaine est réel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bardet, Adrien. „Architectures neuronales multilingues pour le traitement automatique des langues naturelles“. Thesis, Le Mans, 2021. http://www.theses.fr/2021LEMA1002.

Der volle Inhalt der Quelle
Annotation:
La traduction des langues est devenue un besoin essentiel pour la communication entre humains dans un monde où les possibilités de communication s'élargissent. La traduction automatique est une réponse à l'évolution de ce besoin.Plus récemment, la traduction automatique neuronale s'est imposée avec les grandes performances des systèmes neuronaux qui ouvrent une nouvelle aire de l'apprentissage automatique. Les systèmes neuronaux exploitent de grandes quantités de données pour apprendre à réaliser une tâche automatiquement. Dans le cadre de la traduction automatique, les quantités de données parfois importantes et nécessaires pour apprendre des systèmes performants ne sont pas toujours disponibles pour toutes les langues. L'utilisation de systèmes multilingues est une solution pour répondre à ce problème. Les systèmes de traduction automatique multilingues permettent de traduire plusieurs langues au sein d'un même système. Ils permettent aux langues disposant de peu de données d'être apprises aux côtés de langues disposant de plus de données, améliorant ainsi les performances du système de traduction. Cette thèse se concentre sur des approches de traduction automatique multilingues en vue d'améliorer les performances pour les langues disposant de peu de données. J'ai travaillé sur plusieurs approches de traduction multilingues reposant sur différentes techniques de transfert entre les langues. Les différentes approches proposées ainsi que des analyses complémentaires ont révélé l'impact des critères pertinents pour le transfert. Elles montrent aussi l'importance, parfois négligée, de l'équilibre des langues au sein d'approches multilingues
The translation of languages has become an essential need for communication between humans in a world where the possibilities of communication are expanding. Machine translation is a response to this evolving need. More recently, neural machine translation has come to the fore with the great performance of neural systems, opening up a new area of machine learning. Neural systems use large amounts of data to learn how to perform a task automatically. In the context of machine translation, the sometimes large amounts of data needed to learn efficient systems are not always available for all languages.The use of multilingual systems is one solution to this problem. Multilingual machine translation systems make it possible to translate several languages within the same system. They allow languages with little data to be learned alongside languages with more data, thus improving the performance of the translation system. This thesis focuses on multilingual machine translation approaches to improve performance for languages with limited data. I have worked on several multilingual translation approaches based on different transfer techniques between languages. The different approaches proposed, as well as additional analyses, have revealed the impact of the relevant criteria for transfer. They also show the importance, sometimes neglected, of the balance of languages within multilingual approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Traitement Automatique des Langues cliniques"

1

Bouillon, Pierrette. Traitement automatique des langues naturelles. Paris: Aupelf-Uref, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Namer, Fiammetta. Morphologie, lexique et traitement automatique des langues: L'analyseur DériF. Paris: Hermès science publications, 2009.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Biskri, Ismaïl, und Adel Jebali. Traitement automatique des langues naturelles: De l'analyse à l'application. Paris: Hermès science publications, 2011.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Claude, Muller, Silberztein Max, Royauté Jean, Vitas Duško und Journées INTEX (5th : 2002 : Marseille, France), Hrsg. INTEX pour la linguistique et le traitement automatique des langues. Besançon: Presses universitaires de Franche-Comté, 2004.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Blache, Philippe. Les grammaires de propriétés: Des contraintes pour le traitement automatique des langues naturelles. Paris: Hermès science publications, 2001.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'Enssib, 2005.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'ENSSIB, 2005.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

M, Lesohin, und Lukjanenkov K, Hrsg. Introduction of elements of mathematics to linguistics. Bochum: Universitatsverlag Dr N Brockmeyer, 1990.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Anna, Dahl Deborah, Hrsg. Practical spoken dialog systems. Dordrecht: Kluwer Academic Publishing, 2004.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Powers, David M. W. Machine learning of natural language. London: Springer-Verlag, 1989.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Traitement Automatique des Langues cliniques"

1

Sagot, Benoît. „Construction de ressources lexicales pour le traitement automatique des langues“. In Lingvisticæ Investigationes Supplementa, 217–54. Amsterdam: John Benjamins Publishing Company, 2013. http://dx.doi.org/10.1075/lis.30.07sag.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Chaumartin, François-Régis, und Pirmin Lemberger. „3. La représentation du sens“. In Le traitement automatique des langues, 81–121. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0081.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chaumartin, François-Régis, und Pirmin Lemberger. „2. Les bases de la linguistique informatique“. In Le traitement automatique des langues, 63–80. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0063.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Chaumartin, François-Régis, und Pirmin Lemberger. „5. L’approche statistique“. In Le traitement automatique des langues, 173–226. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0173.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chaumartin, François-Régis, und Pirmin Lemberger. „6. L’art difficile de la conversation artificielle“. In Le traitement automatique des langues, 227–44. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0227.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Chaumartin, François-Régis, und Pirmin Lemberger. „7. Les étapes d’un projet“. In Le traitement automatique des langues, 245–84. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0245.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Chaumartin, François-Régis, und Pirmin Lemberger. „8. Perspectives et problèmes ouverts“. In Le traitement automatique des langues, 285–94. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0285.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chaumartin, François-Régis, und Pirmin Lemberger. „4. Les principales tâches du NLP“. In Le traitement automatique des langues, 123–72. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0123.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Chaumartin, François-Régis, und Pirmin Lemberger. „1. Les applications et usages du NLP“. In Le traitement automatique des langues, 1–62. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0001.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bouillon, Pierrette. „Bibliographie“. In Traitement automatique des langues naturelles, 229–44. De Boeck Supérieur, 1998. http://dx.doi.org/10.3917/dbu.bouil.1998.01.0229.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Traitement Automatique des Langues cliniques"

1

Raynal, Céline, Vanessa Andreani, Dominique Vasseur, Zakarya Chami und Eric Hermann. „Apport du Traitement Automatique des Langues pour la catégorisation de retours d'expérience“. In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61744.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Andreani, V., E. Hermann, C. Raynal und E. Carayon. „Apport des outils de traitement automatique des langues pour l’analyse de textes procéduraux“. In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56074.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie