Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Traitement Automatique des Langues cliniques.

Zeitschriftenartikel zum Thema „Traitement Automatique des Langues cliniques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-44 Zeitschriftenartikel für die Forschung zum Thema "Traitement Automatique des Langues cliniques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Gilloux, Michel. „Traitement automatique des langues naturelles“. Annales Des Télécommunications 44, Nr. 5-6 (Mai 1989): 301–16. http://dx.doi.org/10.1007/bf02995675.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Haralambous, Yannis, und John Plaice. „Traitement automatique des langues et composition sous \Omega“. Cahiers GUTenberg, Nr. 39-40 (2001): 139–66. http://dx.doi.org/10.5802/cg.299.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Silberztein, Max. „Linguistique et Traitement Automatique des Langues: une coopération nécessaire“. Langues & Parole 5 (30.11.2020): 43–66. http://dx.doi.org/10.5565/rev/languesparole.63.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui, la plupart des applications logicielles du Traitement Automatique des Langues (analyse du discours, extraction d’information, moteurs de recherche, etc.) analysent les textes comme étant des séquences de formes graphiques. Mais les utilisateurs de ces logiciels cherchent typiquement des unités de sens : concepts, entités, relations dans leurs textes. Il faut donc établir une relation entre les formes graphiques apparaissant dans les textes et les unités de sens qu’elles représentent. Cette mise en relation nécessite des ressources et des méthodes de traitement linguistiques, que je présente ici.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Poibeau, Thierry. „Le traitement automatique des langues pour les sciences sociales“. Réseaux 188, Nr. 6 (2014): 25. http://dx.doi.org/10.3917/res.188.0025.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Zemni, Bahia, Farouk Bouhadiba und Mimouna Zitouni. „Recherche cognitive et traduction automatique en jurilinguistique“. Texto Livre: Linguagem e Tecnologia 15 (18.10.2021): e27031. http://dx.doi.org/10.35699/1983-3652.2022.27031.

Der volle Inhalt der Quelle
Annotation:
De par ses caractéristiques morpho-phonologiques, morphosyntaxiques, lexicales et autres systèmes et sous-systèmes de son fonctionnement, la langue arabe représente un système de non-concaténation (ou non-enchaînement des morphèmes). Elle diffère dans ce sens des langues Indo-européennes – à systèmes de concaténation – et demeure pour ainsi dire, une langue assez complexe à gérer dans le domaine du Traitement Automatique des Langues(TAL). Ceci, surtout lorsqu’il s’agit de traduire automatiquement des faits de langue porteurs d’éléments culturels propres à cette langue. Les données examinées dans cet article sont révélatrices de hiatus quant à la traduction automatique de textes juridiques arabes vers d’autres langues telles que le français ou l’anglais. L’apparentement génétique différent des langues en question pose non seulement des problèmes d’ordre linguistique dans le passage d’une langue vers une autre, mais aussi et surtout que les textes juridiques en langue arabe sont porteurs de poids sémantiques, culturels, religieux et civilisationnels qui ne reflètent pas toujours les mêmes référents ou gestalt des langues cibles. Il en est conclu que l’intervention humaine dans ce processus de traduction est plus que nécessaire comme le révèle l’étude des cas de textes juridiques en Arabie Saoudite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Frath, Pierre. „Quelle sémantique pour le tal ?“ Scolia 11, Nr. 1 (1998): 39–68. http://dx.doi.org/10.3406/scoli.1998.976.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des langues semble largement reposer sur une vision positiviste du sens, pour laquelle un sens complexe est composé de sens plus élémentaires agencés par des règles, des prédicats abstraits ou des mécanismes. Les sémantiques de ce type produisent des univers sémantiques clos entièrement codés, particulièrement intéressants pour certaines applications en TAL. C'est le cas de la sémantique générative, dont nous étudions ici un des exemples emblématiques, celui du verbe commencer. Nous examinons ensuite un grand nombre d’occurrences du verbe begin dans divers corpus. Les résultats de cet examen nous amènent ensuite à nous interroger sur la nécessité d'une sémantique de la performance pour le traitement automatique de corpus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Paroubek, Patrick, und Joseph Mariani. „De l’évaluation et ses ressources en traitement automatique des langues“. Revue française de linguistique appliquée XXIV, Nr. 1 (2019): 95. http://dx.doi.org/10.3917/rfla.241.0095.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Da Sylva, Lyne. „Nouveaux horizons en indexation automatique de monographies“. Documentation et bibliothèques 48, Nr. 4 (08.05.2015): 155–67. http://dx.doi.org/10.7202/1030353ar.

Der volle Inhalt der Quelle
Annotation:
Quel est l’état de la question en indexation automatique de monographies ? Bien que les premières tentatives d’indexation automatique datent du début des années 1960, elles n’ont toujours pas abouti à des systèmes satisfaisants du point de vue des indexeurs professionnels.Pourtant il y a lieu de s’interroger sur les possibilités actuelles d’indexation automatique, compte tenu du nombre croissant de documents numériques pour lesquels il serait intéressant de fournir un index comme celui qu’on trouve à la fin d’un livre (back-of-the-book index). En outre, les quinze dernières années ont vu des innovations importantes dans le domaine du traitement automatique des langues (TAL), qui pourraient avoir des applications avantageuses pour l’indexation automatique de monographies. Cet article propose de définir la problématique et d’identifier les nouvelles pistes de solutions à explorer afin de dépasser les performances des systèmes actuellement offerts pour l’indexation automatique de monographies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gross, Gaston, und Michel Mathieu-Colas. „Description de la langue de la médecine“. Meta 46, Nr. 1 (02.10.2002): 68–81. http://dx.doi.org/10.7202/002976ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le traitement automatique des langues de spécialité exige une description qui rende compte de son fonctionnement. Le travail descriptif s'appuie sur la notion de phrase et l'établissement de la liste de tous les prédicats, ainsi que sur la détermination des arguments pour situer les emplois. L'article présente les diverses étapes de description illustrées par de nombreux exemples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Schuurman, Ineke. „Eurotra: the Philosophy Behind it“. Meta 39, Nr. 1 (30.09.2002): 176–83. http://dx.doi.org/10.7202/004059ar.

Der volle Inhalt der Quelle
Annotation:
Résumé La Communauté européenne a lancé un programme de recherche et développement portant sur le traitement des langues naturelles et plus spécifiquement sur la traduction automatique. Ce programme, Eurotra, s'est achevé à la fin de 1992. La première partie de cet article présente les fondements de ce programme et la deuxième, la philosophie sousjacente au projet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Weissenbacher, Davy. „Les réseaux bayésiens : un formalisme adapté au traitement automatique des langues ?“ Revue d'intelligence artificielle 21, Nr. 3 (12.06.2007): 371–90. http://dx.doi.org/10.3166/ria.21.371-390.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Pierrel, Jean-Marie. „Un ensemble de ressources de référence pour l’étude du français : tlfi, frantext et le logiciel stella“. Revue québécoise de linguistique 32, Nr. 1 (20.02.2006): 155–76. http://dx.doi.org/10.7202/012248ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Les recherches en traitement automatique des langues nécessitent de vastes ressources de référence : corpus textuels, dictionnaires informatiques, outils de traitement. Cette contribution présente les ressources linguistiques informatisées du laboratoire atilf (Analyse et Traitement Informatique de la Langue Française) accessibles sur la toile ainsi que leur diversité d’exploitation potentielle. Regroupant un ensemble de plus de 3600 textes de langue française réunis dans frantext et divers dictionnaires, lexiques et autres bases de données, ces ressources exploitent les fonctionnalités du logiciel stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Eensoo, Egle, und Mathieu Valette. „Associer heuristiques textométriques et méthodes d’évaluation issues du traitement automatique des langues“. Éla. Études de linguistique appliquée N° 180, Nr. 4 (2015): 429. http://dx.doi.org/10.3917/ela.180.0429.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

أحمد عبد الباري عبد, الحسن. „Pourquoi les fonctions lexicales seraient-elles acceptables pour le Traitement Automatique des Langues ?“ مجلة کلية الآداب 70, Nr. 70 (01.01.2024): 0. http://dx.doi.org/10.21608/bfa.2023.248936.1272.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Dündar, Oğuz İbrahim. „Utilisation Potentielle De Chatgpt Dans L'apprentissage Des Langues Etrangères : Exploration Des Possibilités Selon Les Niveaux Langagiers Du CECRL“. Kahramanmaraş Sütçü İmam Üniversitesi Sosyal Bilimler Dergisi 21, Nr. 1 (30.04.2024): 63–75. http://dx.doi.org/10.33437/ksusbd.1384040.

Der volle Inhalt der Quelle
Annotation:
Cet article explore les possibilités d'utiliser ChatGPT, un agent conversationnel basé sur l'intelligence artificielle, dans l'apprentissage des langues étrangères. L'article commence par définir les termes tels que "Chatbot", "Intelligence Artificielle", "Traitement Automatique des Langues" et "Génération de Langage Naturel", afin de fournir un contexte approprié. Ensuite, il examine les différentes activités langagières définies et propose des utilisations potentielles de ChatGPT pour chacune de ces activités. Les possibilités d'utilisation de ChatGPT dans l'apprentissage des langues étrangères comprennent la pratique de la conversation écrite, la correction grammaticale, l'enrichissement du vocabulaire, la compréhension écrite, les jeux de rôles et simulations écrites, la préparation aux examens écrits, les activités de traduction, les exercices de grammaire et de conjugaison, les explications grammaticales et bien d’autres. L'article propose également une illustration des avantages de ChatGPT selon les niveaux langagiers du CECRL avec l’utilisation des exemples de questions de production écrite ainsi que des extraits de textes pour la compréhension écrite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Normand, Sylvie, und Didier Bourigault. „Analyse des adjectifs d’un corpus médical à l’aide d’outils de traitement automatique des langues“. Revue française de linguistique appliquée V, Nr. 2 (2000): 151. http://dx.doi.org/10.3917/rfla.052.0151.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Fuentes, Sandrine. „LA TRADUCTION DES NOMS DE PROFESSION DANS UN SYSTÈME DE DICTIONNAIRES ÉLECTRONIQUES COORDONNÉS (ES-FR)“. Verbum 7, Nr. 7 (20.12.2016): 66. http://dx.doi.org/10.15388/verb.2016.7.10259.

Der volle Inhalt der Quelle
Annotation:
Dans cet article, nous nous attachons à la problématique posée par la traduction des noms de profes­sions de l’espagnol vers le français et ce, dans une perspective de Traitement Automatique des Langues (TAL). Malgré la proximité linguistique des deux langues mises en regard, des obstacles d’ordre géné­ral comme la polysémie ou le figement et d’autres plus spécifiques comme le haut degré de technicité des termes concernés ou encore la structure interne complexe des syntagmes terminologiques peuvent entraver le processus de traduction automatique. C’est pourquoi il est nécessaire de fournir au système des descriptions linguistiques exhaustives, minutieuses et formalisées. C’est ce que nous proposons dans le dictionnaire électronique DicPro, où chaque lemme est associé à des champs lexicographiques de différents types (morphologique, sémantique, syntaxique, etc.) et ce, conformément au modèle de microstructure des dictionnaires électroniques conçus au sein du LDI (Université Paris 13). Il convient de souligner que chaque entrée du dictionnaire correspond à une seule et unique unité lexicale et que les formes polysémiques sont donc automatiquement dédoublées. D’autre part, nous concevons le dic­tionnaire bilingue comme une paire de dictionnaires monolingues coordonnés (Blanco : 1999), c’est pourquoi les équivalents de traduction que nous offrons servent de pointeurs vers le module français, dans lequel les lemmes sont munis de leurs propres descriptions linguistiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Fuentes, Sandrine. „LA TRADUCTION DES NOMS DE PROFESSION DANS UN SYSTÈME DE DICTIONNAIRES ÉLECTRONIQUES COORDONNÉS (ES-FR)“. Verbum 7, Nr. 7 (22.12.2016): 66. http://dx.doi.org/10.15388/verb.2016.7.10287.

Der volle Inhalt der Quelle
Annotation:
Dans cet article, nous nous attachons à la problématique posée par la traduction des noms de profes­sions de l’espagnol vers le français et ce, dans une perspective de Traitement Automatique des Langues (TAL). Malgré la proximité linguistique des deux langues mises en regard, des obstacles d’ordre géné­ral comme la polysémie ou le figement et d’autres plus spécifiques comme le haut degré de technicité des termes concernés ou encore la structure interne complexe des syntagmes terminologiques peuvent entraver le processus de traduction automatique. C’est pourquoi il est nécessaire de fournir au système des descriptions linguistiques exhaustives, minutieuses et formalisées. C’est ce que nous proposons dans le dictionnaire électronique DicPro, où chaque lemme est associé à des champs lexicographiques de différents types (morphologique, sémantique, syntaxique, etc.) et ce, conformément au modèle de microstructure des dictionnaires électroniques conçus au sein du LDI (Université Paris 13). Il convient de souligner que chaque entrée du dictionnaire correspond à une seule et unique unité lexicale et que les formes polysémiques sont donc automatiquement dédoublées. D’autre part, nous concevons le dic­tionnaire bilingue comme une paire de dictionnaires monolingues coordonnés (Blanco : 1999), c’est pourquoi les équivalents de traduction que nous offrons servent de pointeurs vers le module français, dans lequel les lemmes sont munis de leurs propres descriptions linguistiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Estival, Dominique. „ELU, un environnement d’expérimentation pour la TA“. Meta 37, Nr. 4 (30.09.2002): 693–708. http://dx.doi.org/10.7202/002711ar.

Der volle Inhalt der Quelle
Annotation:
Résumé ELU donne aux chercheurs en traitement automatique du langage (TAL) un environnement de génie linguistique basé sur l'unification, dont le formalisme théoriquement validé permet d'expérimenter différentes analyses et théories linguistiques pour les descriptions des langues, et il donne plus particulièrement aux chercheurs en traduction automatique (TA) la possibilité d'expérimenter différentes approches de la traduction. Le paradigme des grammaires d'unification est un formalisme attrayant pour le TAL parce que ses propriétés formelles sont claires et bien établies. Si l'optique théoriquement neutre de l'environnement rejoint des préoccupations que l'on retrouve chez certains chercheurs en linguistique théorique, ELU est principalement destiné à la construction de systèmes prototypes de TA. Non seulement ELU est basé sur l'unification, mais il exploite dans chacune de ses composantes la réversibilité des grammaires, celle des descriptions linguistiques monolingues, on peut en effet pratiquer la réversibilité des descriptions bilingues, dans la composante de transfert. Le formalisme adopté permet donc de tester l'hypothèse qu'un système de TA peut, et donc devrait peut-être, être bidirectionnel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Hamel, Marie-Josée. „Les outils de TALN dans SAFRAN“. ReCALL 10, Nr. 1 (Mai 1998): 79–85. http://dx.doi.org/10.1017/s0958344000004286.

Der volle Inhalt der Quelle
Annotation:
Le projet SAFRAN a pour objectif le développement d'une interface dédiée à I'enseignement du français assisté par ordinateur, interface dans laquelle sont intégrés progressivement des outils de traitement automatique des langues naturelles. Ces outils, dans le cadre du projet SAFRAN, sont I'analyseur syntaxique et le synthétiseur vocal FIPSvox, le dictionnaire électronique conceptuel FR-Tool et le conjugueur FLEX, lls permettent I'accès à des ressources linguistiques riches et variées, favorisent I'expérimentation et enfin, offrent un support au diagnostic. Notre article fait le compte-rendu de deux années d'activités scientifiques pour lesquelles nos efforts ont porté sur le développement d'un module sur I'enseignement de la phonétique du français qui intègre les outils de TALN mentionnŕs supra.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Hathout, Nabil, und Ludovic Tanguy. „Webaffix : une boîte à outils d’acquisition lexicale à partir du Web“. Revue québécoise de linguistique 32, Nr. 1 (20.02.2006): 61–84. http://dx.doi.org/10.7202/012244ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Nous présentons ici Webaffix, un outil qui permet de constituer et d’enrichir semi-automatiquement des données lexicales en utilisant le Web comme corpus. Il permet de détecter et d’analyser morphologiquement des unités lexicales nouvelles (c’est-à-dire absentes de listes de référence telles que les dictionnaires) construites par suffixation ou préfixation. Nous présentons les techniques utilisées par Webaffix, en déclinant les différents modes d’utilisation que nous avons envisagés et mis en pratique, ainsi que des exemples de résultats produits par diverses campagnes de collecte. Les données ainsi recueillies constituent des ressources lexicales pour différentes applications en traitement automatique des langues, mais également pour l’étude à grande échelle de la morphologie dérivationnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Setton, Robin. „Words and Sense“. FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 1, Nr. 1 (01.04.2003): 139–68. http://dx.doi.org/10.1075/forum.1.1.08set.

Der volle Inhalt der Quelle
Annotation:
L’opposition entre traduction ‘libre’ et traduction littérale traverse la traductologie depuis ses débuts; l’école du sens fait de la traduction par le sens son cheval de bataille. La séparation imparfaite des langues dans le lexique multilingue et les conditions difficiles de l’interprétation simultanée supposent à la fois des dangers (l’interférence) et des voies à exploiter grâce à la multiplication des possibilités de formulation autorisées par l’apport cognitif du contexte. Les contraintes de capacité de traitement rendent probable un recours plus ou moins intensif de l’interprète à des correspondences lexicales apprises, allant bien au-delà des seuls termes techniques, pouvant être insérées de façon quasi automatique. La métaphore connexioniste permet de modéliser le choix de modes parallèles de traitement (construction logique, recherche conceptuelle ou recours direct à une correspondance lexicale) qui s’offrent à chaque détour de la chaîne parlée, tandis que les spécificités des glossaires préparés et utilisés par les interprètes révèlent leur fonction d’amorçage ou d’aiguillage ponctuel de réseaux lexicaux et conceptuels déjà orientées vers les besoins particuliers de cette tâche par la formation et l’expérience professionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Śliwa, Dorota. „Prédicats polonais et français relatifs aux étapes de la panification et leur application pour analyser des corpus bilingues comparables“. Roczniki Humanistyczne 67, Nr. 8 (04.11.2019): 135–54. http://dx.doi.org/10.18290/rh.2019.67.8-9.

Der volle Inhalt der Quelle
Annotation:
POLSKIE I FRANCUSKIE PREDYKATY ZWIĄZANE Z ETAPAMI WYPIEKU CHLEBA ORAZ ICH ZASTOSOWANIE W ANALIZIE DWUJĘZYCZNYCH TEKSTÓW PORÓWNYWALNYCH Teksty porównywalne są reprezentatywne dla różnych dziedzin rzemiosła. Wobec zapotrzebowania na dwujęzyczne słowniki z tych dziedzin w kształceniu specjalistów, zaproponowana została w tym artykule metoda analizy na przykładzie polskich i francuskich tekstów z dziedziny piekarstwa. Celem tej analizy jest ustalenie jednostek ekwiwalentnych, które będą zastosowane w językoznawstwie komputerowym na potrzeby w zakresie tłumaczeń, analiz kontrastywnych oraz tworzenia słowników polsko-francuskich. W pierwszej części wyjaśnione są jednostki ekwiwalentne stosowane w językoznawstwie komputerowym, a w następnych koncepcja skryptu poznawczego, ram konceptualnych oraz predykatów zastosowana do ekstrakcji jednostek leksykalnych oraz określenia ich relacji znaczeniowych (meronimia i hiponimia). Prédicats polonais et français relatifs aux étapes de la panification et leur application pour analyser des corpus bilingues comparables Les textes bilingues comparables sont représentatifs pour différents domaines de l’artisanat. Pour répondre aux besoins de la rédaction de dictionnaires bilingues pour la formation des professionnels, nous proposons dans cet article une méthode d’analyse à partir de textes polonais et français du domaine de la boulangerie. Le but de cette analyse est d’établir des unités équivalentes qui seront exploitées et appliquées dans le traitement automatique des langues et qui serviront pour la traduction, pour les analyses contrastives et pour la rédaction des dictionnaires polonais-français. Dans la première partie de l’article nous expliquons d’abord les unités équivalentes utilisées dans le traitement automatique de textes comparables. Dans les parties suivantes nous présentons la conception du script cognitif, du cadre conceptuel et des prédicats appliquée pour l’extraction des unités lexicales et pour déterminer les relations significatives entre elles (méronymie et hyponymie).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Omodei, Elisa, Yufan Guo, Jean-Philippe Cointet und Thierry Poibeau. „Diversité sociale et sémantique : représentation socio-sémantique d’un corpus scientifique, le cas du corpus ACL Anthology“. Nouvelles perspectives en sciences sociales 11, Nr. 1 (01.04.2016): 145–79. http://dx.doi.org/10.7202/1035935ar.

Der volle Inhalt der Quelle
Annotation:
Nous proposons une nouvelle méthode pour l’extraction de termes multi-mots à partir de publications scientifiques. Notre stratégie est fondée sur la combinaison de deux approches : une première liste de termes « candidats » est d’abord extraite à partir de critères de fréquence et de spécificité. Cette liste est ensuite classée suivant la position du terme dans le Résumé : (en ayant recours à un étiquetage de la valeur « argumentative » des phrases, selon une analyse de type text zoning). Cette approche permet de classer les termes en différentes catégories, et notamment de distinguer le vocabulaire conceptuel des éléments d’ordre méthodologique. Nous avons appliqué cette méthode à l’extraction des termes utilisés en traitement automatique des langues à partir de l’analyse d’un corpus (ACL Anthology) s’étendant de 1980 à 2008. Nous montrons ainsi qu’il est possible de suivre les méthodes utilisées, comment elles sont introduites dans le domaine, par quel type d’auteur et pour quel usage, etc. Nous observons ainsi plusieurs faits marquants de l’évolution du domaine sur une période de plus de 30 ans.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Metzger, Jean-Paul, und Seyed Mohammad Mahmoudi. „Propositions Pour Une Reconnaissance Automatique des Syntagmes Nominaux du Persan“. Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 20, Nr. 2 (01.01.1996): 381–418. http://dx.doi.org/10.1075/li.20.2.06met.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ L'objet de cet article réside dans la conception globale d'un analyseur morpho-syntaxique du persan pour 1'indexation automatique. L'analyseur se limite donc à la recherche des Syntagmes Nominaux (SN), considérés comme les éléments les plus informatifs, dans le contexte d'une recherche documentaire, pour l'analyse du contenu d'un texte. La mise au point d'un tel analyseur nécessite, au préalable, une segmentation et une catégorisation correcte de toute forme lexico-syntaxique. Nous présentons très brièvement un aperçu général du traitement automatique des langues naturelles (TAL) et certaines caractéristiques de la langue persane. Puis nous essayons de donner quelques solutions générales pour la construction des règies de réécriture nécessaires pour la reconnaissance automatique des SN en persan. Les règies de réécriture ainsi élaborées sont transcrites en un programme en langage Prolog. SUMMARY The aim of this paper is the conception and realisation of a morpho-syntactic parser of persian designed for applications to automatic indexing and computer-assisted instruction of the language (CAT). One of the chief extensions to this research is the automatic processing of natural language by means of artificial intelligence systems. The main interest of this contribution is to study the automatic recognition of noun phrases in Persian. In the case of automatic indexing, the recognition of the noun phrases would allow the apprehension of the content of the document. Automatic indexing, just as manual indexing, consists of selecting in every document the most informative elements which actually are descriptors or noun phrases (NP). The setting up or conception of such a parser demands, primarily, a correct segmentation and categorisation of any lexico-syntactic forms in the corpus. After having established all the transcription rules needed for the recognition of NP, we shall then transcribe every phase of the analysis by a program in Prolog language. All the lexical data necessary for the categorisation of morpho-syntactic forms are presented as clauses of Prolog in a data-base.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Filhol, Michael. „Modèle descriptif des signes pour un traitement automatique des langues des signes [A descriptive model of signs for sign language processing]“. Sign Language and Linguistics 12, Nr. 1 (30.10.2009): 93–100. http://dx.doi.org/10.1075/sll.12.1.05fil.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Maynadier, X., G. Hocquet, O. Billuart, F.-R. Desfemmes, V. de Parades und A. Buronfosse. „Comment valoriser sur le plan scientifique les données textuelles du dossier patient informatisé grâce aux méthodes de traitement automatique des langues“. Journal of Epidemiology and Population Health 72 (März 2024): 202371. http://dx.doi.org/10.1016/j.jeph.2024.202371.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Ghiță, Andreea. „Kurdi, Mohamed Zakaria (2018) : Traitement automatique des langues et linguistique informatique. Vol. 2. Sémantique, discours et applications. Sciences cognitives. Londres : ISTE Éditions, 323 p.“ Meta: Journal des traducteurs 64, Nr. 3 (2019): 836. http://dx.doi.org/10.7202/1070547ar.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Blanquet, Marie-France. „Résumé automatique de textes , Sous la direction de Jean-Luc Minel, Paris : Hermès Science Publications : Lavoisier, 2004. – 211 p. Numéro de : Traitement automatique des langues , ISSN 1248-9433, 2004, vol. 45, n° 1. – ISBN 2-7462-1022-3 : 65 €“. Documentaliste-Sciences de l'Information Vol. 43, Nr. 2 (30.04.2006): VII. http://dx.doi.org/10.3917/docsi.432.0158g.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Dalbin, Sylvie. „Compréhension des langues et interaction . Sous la direction de Gérard Sabah, Hermès Science Publications : Lavoisier, 2006. – 400 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1256-0 : 120 €. Sémantique et traitement automatique du langage naturel . Sous la direction de Patrice Enjalbert Paris : Hermès Science Publications : Lavoisier, 2005. – 410 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1126-2 : 120 €“. Documentaliste-Sciences de l'Information Vol. 44, Nr. 1 (28.02.2007): II. http://dx.doi.org/10.3917/docsi.441.0096b.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Grezka, Aude. „Variabilité et traitement automatique des langues“. Les variations diatopiques dans les expressions figées 43, Nr. 2 (15.12.2020). http://dx.doi.org/10.1075/li.00050.gre.

Der volle Inhalt der Quelle
Annotation:
Résumé Par cette contribution, nous souhaitons proposer une analyse de la variation, principalement diatopique, appliquée aux séquences fixes, grâce à une ressource que nous avons développée pour le Traitement Automatique des Langues (TAL). Le grand nombre de variantes qui apparaissent dans les corpus nous a conduit à effectuer une analyse exhaustive de ces constructions afin de permettre aux utilisateurs natifs et non natifs, et aux applications TAL, d’utiliser correctement ces séquences fixes. Les données textuelles auxquelles les méthodes et outils du TAL doivent faire face sont variées, de qualité́ potentiellement dégradées et volumineuses. Enfin, l’autre difficulté à laquelle le TAL doit faire face pour accéder au sens des textes sont les caractéristiques intrinsèques des langues naturelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Léon, Jacqueline. „Linguistique appliquée et traitement automatique des langues“. Recherches en didactique des langues et des cultures 12, Nr. 3 (07.12.2015). http://dx.doi.org/10.4000/rdlc.949.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Bernhard, Delphine, Myriam Bras, Anne-Laure Ligozat, Aleksandra Miletic, Jean Sibille, Amalia Todirascu und Marianne Vergez-Couret. „L’avenir numérique des langues minoritaires : bilan du projet RESTAURE pour l’alsacien, l’occitan et le picard“. Cahiers du plurilinguisme européen, Nr. 12 (18.07.2022). http://dx.doi.org/10.57086/cpe.1253.

Der volle Inhalt der Quelle
Annotation:
Le numérique est un des enjeux de la revitalisation des langues minoritaires. Or, l’informatisation de ces langues a une faible rentabilité qui ne compense pas des coûts de développement importants. Le défi que constitue la constitution de ressources et d’outils numériques pour ces langues est donc considérable. Le projet RESTAURE (Ressources informatisées et Traitement Automatique pour les langues régionales), financé par l’ANR (2015-2018) a eu pour objectif de fournir des ressources numériques, en particulier à travers la constitution de corpus et lexiques, et d’outils de traitement automatique des langues pour trois langues régionales de France : l’alsacien, l’occitan et le picard. Dans cet article, nous présentons le bilan du projet RESTAURE, et en particulier les défis méthodologiques qui ont été soulevés — données et outils numériques rares et éparses, variations dialectales et graphiques, descriptions des langues incomplètes — ainsi que les solutions qui ont été proposées — coopération, utilisation de standards. Nous tirons également les leçons principales de ce projet qui, nous l’espérons, pourront être utiles à d’autres chercheurs et à d’autres langues.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Lavin, Matthew J. „Analyse de documents avec TF-IDF“. Programming Historian en français, Nr. 4 (27.06.2022). http://dx.doi.org/10.46430/phfr0022.

Der volle Inhalt der Quelle
Annotation:
Cette leçon présente une méthode de traitement automatique des langues et de recherche d'informations nommée Term Frequency - Inverse Document Frequency (tf-idf). Elle en expose les fondations et introduit à l'occasion des questions et des concepts liés à l'analyse de textes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

YVON, François. „Transformer : des réseaux de neurones pour le traitement automatique des langues“. Représentation et traitement des documents numériques, März 2022. http://dx.doi.org/10.51257/a-v1-in195.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Vidal-Gorène, Chahan. „La reconnaissance automatique d'écriture à l'épreuve des langues peu dotées“. Programming Historian en français, Nr. 5 (30.01.2023). http://dx.doi.org/10.46430/phfr0023.

Der volle Inhalt der Quelle
Annotation:
Ce tutoriel a pour but de décrire les bonnes pratiques pour la création d'ensembles de données et la spécialisation des modèles en fonction d'un projet HTR (*Handwritten Text Recognition*) ou OCR (*Optical Character Recognition*) sur des documents qui n'utilisent pas l'alphabet latin et donc pour lesquels il n'existe pas ou très peu de données d'entraînement déjà disponibles. Le tutoriel a ainsi pour but de montrer des approches de *minimal computing* (ou d'investissement technique minimal) pour l'analyse de collections numériques à grande échelle pour des langues peu dotées. Notre tutoriel se concentrera sur un exemple en grec ancien, puis proposera une ouverture sur le traitement d'écritures arabes maghrébines manuscrites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Todirascu, Amalia. „Dictionnaires électroniques : normes de représentation“. Cahiers du plurilinguisme européen, Nr. 10 (27.07.2022). http://dx.doi.org/10.57086/cpe.1053.

Der volle Inhalt der Quelle
Annotation:
L’article présente plusieurs normes utilisées pour la représentation des données dans les dictionnaires électroniques et lexiques destinés aux outils de Traitement automatique des Langues (TAL). Les normes présentées préconisent la représentation des informations linguistiques dans des dictionnaires électroniques selon le modèle TEI (Text Encoding Initiative) et le modèle LMF (Lexical Markup Framework). Nous nous intéressons en particulier aux dictionnaires de collocations à l’adaptation du modèle LMF pour la représentation de ce type de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Bouhlel, Ezz Aldine. „De L’utilité Des Nouvelles Théories En Linguistique Dans Le Traitement Automatique Des Langues“. مجلة موارد, 2015, 37. http://dx.doi.org/10.38168/1061-000-020-016.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Larsonneur, Claire. „Intelligence artificielle ET/OU diversité linguistique : les paradoxes du traitement automatique des langues“. Hybrid, Nr. 7 (08.04.2021). http://dx.doi.org/10.4000/hybrid.650.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Eurrutia Cavero, Mercedes. „Les mots du transport et de la gestion : approche sémantique-contextuelle“. Recherches terminologiques (cédérom) 50, Nr. 4 (04.02.2009). http://dx.doi.org/10.7202/019915ar.

Der volle Inhalt der Quelle
Annotation:
Resume Les exigences inhérentes au traitement automatique des langues ont mis en exergue la nécessité de formaliser l’articulation forme / sens et impliquent une procédure descriptive de la langue susceptible de rendre compte finement du rôle et du fonctionnement sémantique, dans les discours, de chaque unité lexicale, puisque nous avons affaire à des langues vivantes. Privilégiant une approche sémantique du lexique dans la ligne de Benveniste et nous appuyant sur un corpus de documents préalablement sélectionné appartenant aux domaines spécialisés objet d’analyse (transport — gestion), nous étudierons les changements sémantiques qui militent en faveur de la créativité néologique ainsi que les difficultés que cela pose dès une perspective traductologique. Cela nous permettra de conclure la façon dont les nouveaux lexèmes s’inscrivent dans le système linguistique considéré ; en définitive, le fonctionnement interactif langue / discours.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Sorba, Julie. „Marcel Cori, Le traitement automatique des langues en question. Des machines qui comprennent le français ?“ Lidil, Nr. 66 (31.10.2022). http://dx.doi.org/10.4000/lidil.11395.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Flamein, Hélène, und Iris Eshkol-Taravella. „Exploitation du corpus Enquêtes sociolinguistiques à Orléans (ESLO) par les outils du traitement automatique des langues et de la géomatique“. Humanités numériques, Nr. 3 (01.05.2021). http://dx.doi.org/10.4000/revuehn.1911.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Cauli, Marie, Etienne Lemarié und Yves Tremblay. „Vers une science ouverte francophone en santé. Le champ de l’éducation médicale est aussi concerné“. Pédagogie Médicale, 2023. http://dx.doi.org/10.1051/pmed/2022041.

Der volle Inhalt der Quelle
Annotation:
Contexte et problématique : La société des savoirs constitue un changement de paradigme sur la forme et sur le fond. La science ouverte (SO) est un mouvement mondial qui vise à rendre accessible les produits de la recherche et qui s’accélère avec les potentialités technologiques. Elle s’appuie sur un certain nombre de principes : accès et diffusion large et sans entrave, partage et retombée des produits de la recherche avec la société civile. Contenu et analyse : La SO comporte un accès libre et gratuit aux articles, un accès aux données sources, une analyse des données, la mise à disposition de pré-prints, l’évaluation ouverte. Dans ce contexte, la francophonie, par l’hétérogénéité de ses situations et son homogénéité linguistique, apparaît comme un terrain privilégié d’observation et d’expérimentation. Le Groupe de réflexion et d’information en science ouverte francophone (GRISOF), qui œuvre à l’amélioration de la recherche francophone dans la science médicale et en santé, propose, à partir de ses acquis, quelques clés pratiques pour le chercheur clinicien, le chercheur en biomédical et en santé publique, oriente sa réflexion vers l’évaluation et intensifie sa feuille de route sur la formation. Si l’anglais est la langue prédominante, le traitement automatique du langage (TAL) constitue une opportunité technologique. L’accès libre aux articles donne une opportunité aux travaux en français de mieux se faire connaître, de même que la traduction numérisée permet d’accéder aux articles d’autres langues. Conclusion : L’accès libre aux articles permet d’améliorer la profondeur et l’étendue des connaissances des étudiants. Il constitue une composante essentielle des apprentissages de recherche. Faire participer les étudiants à la publication ouverte de leurs propres travaux est un moyen de les sensibiliser aux pratiques scientifiques ouvertes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Poirier, Éric. „Towards an empirical evaluation of translated texts and translation quality“. Journal of Data Mining & Digital Humanities Towards robotic translation?, IV. Challenges for... (12.12.2022). http://dx.doi.org/10.46298/jdmdh.9123.

Der volle Inhalt der Quelle
Annotation:
We present various empirical methods and tools that can objectify and optimize the evaluation of translated texts as parallel translation corpora produced by professional translators or by a machine translation service. The proposed methods and tools are based on an empirical analysis of information processing in translated texts and on the utilitarian role of machine translation and its methods, and they can be implemented in a tool-based translation evaluation apparatus in a professional context. The salient part of these methods (which can be deployed automatically or manually) relies on the comparison of two parameters that are measurable in most natural languages, namely the length of the segments in characters and the number of lexical words they contain. Our recent work (Poirier, 2017 and Poirier, 2021) has shown that these parameters have a strong positive correlation in translation (above 0.9 as a rule, and most often exceeding 0.95): the more characters or lexical words the source segment contains, the more characters or lexical words the translation contains. The measurement of the lexical words and the information volume of the translations allows distinguishing heteromorphic translations (more or less information) from isomorphic segments (same information content). The manual and partially automatic analysis of heteromorphic segments opens up new empirical horizons in the professional evaluation of translations as well as in the contrastive study of discourse and textual translation techniques (e.g., in phraseology, textometry and stylistics). MT can be integrated into various stages before and after the evaluation of translated texts. Upstream, it can be used as an element of comparison of mandatory or optional informational gaps (cultural or personal bias in the target language-culture) in professional translation. Downstream, it can provide the revised translation or revision with counterexamples that negatively justify the suitability or conventionality of the divergent formulations. Nous présentons différentes méthodes et outils empiriques qui sont susceptibles d’objectiver et d’optimiser l'évaluation des textes traduits en tant que corpus de traduction parallèles produits par des traducteurs professionnels ou par un service de traduction automatique. Les méthodes et outils proposés prennent appui sur une analyse empirique du traitement de l’information dans les textes traduits ainsi que sur le rôle utilitaire de la traduction automatique et de ses méthodes, et elles peuvent être mises en œuvre dans un appareillage outillé d'évaluation des traductions dans un contexte professionnel. La partie saillante de ces méthodes (qui peuvent être déployées automatiquement ou manuellement) repose sur la comparaison de deux paramètres mesurables dans la plupart des langues naturelles, à savoir la longueur des segments en caractères et le nombre de mots lexicaux qu'ils contiennent. Nos travaux récents (Poirier, 2017 et Poirier, 2021) ont montré que ces paramètres ont une forte corrélation positive en traduction (supérieure à 0,9 en règle générale, et dépassant le plus souvent 0,95) : plus le segment source contient de caractères ou de mots lexicaux, plus la traduction contient de caractères ou de mots lexicaux. La mesure des mots lexicaux et du volume informationnel des traductions permet de distinguer les traductions hétéromorphes (information en surplus ou en moins) des segments isomorphes (même contenu informationnel). L'analyse manuelle et partiellement automatique des segments hétéromorphes ouvre de nouveaux horizons empiriques dans l'évaluation professionnelle des traductions ainsi que dans l'étude contrastive des techniques de traduction discursives et textuelles (en phraséologie, en textométrie et en stylistique, par exemple). La TA peut s'intégrer à différentes étapes en amont et en aval de l’évaluation des textes traduits. En amont, elle peut servir d'élément de comparaison des écarts informationnels obligatoires ou facultatifs (biais culturels ou personnels en langue-culture cible) de la traduction professionnelle. En aval, elle peut fournir à la traduction révisée ou à la révision des contre-exemples qui justifient par la négative le caractère convenable ou conventionnel des formulations divergentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie