Добірка наукової літератури з теми "Traitement automatique du language"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Traitement automatique du language".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Traitement automatique du language":

1

Gross, Gaston, and Franz Guenthner. "Traitement automatique des domaines." Revue française de linguistique appliquée III, no. 2 (1998): 47. http://dx.doi.org/10.3917/rfla.032.0047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Massoussi, Taoufik, and Salah Mejri. "Traitement automatique des métonymies." Revue française de linguistique appliquée XIV, no. 2 (2009): 43. http://dx.doi.org/10.3917/rfla.142.0043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Blin, Raoul. "Traitement automatique du japonais et études linguistiques." Histoire Épistémologie Langage 23, no. 1 (2001): 33–48. http://dx.doi.org/10.3406/hel.2001.2816.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Valette, Mathieu, and Egle Eensoo. "Approche textuelle pourle traitement automatique du discours évaluatif." Langue française 184, no. 4 (2014): 109. http://dx.doi.org/10.3917/lf.184.0109.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Labelle, Jacques. "Le Traitement Automatique Des Variantes Linguistiques en Français." Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 19, no. 1 (January 1, 1995): 137–52. http://dx.doi.org/10.1075/li.19.1.09lab.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This work deals with the sub-class of concrete nouns and with automatic lexical transfer. It is a part of an ongoing project of comparative description of Quebec French. The paper presents a comparative method for studying language variants and some results concerning the construction of an electronic dictionary of synonyms. It is a contribution to the representation of relations of synonymy.
6

Maurel, Denis. "Grammaire des Dates Etude Préliminaire à Leur Traitement Automatique." Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 12, no. 1 (January 1, 1988): 101–28. http://dx.doi.org/10.1075/li.12.1.05mau.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Grammar of dates: Preliminary study to their automatic treatment. The automatic analysis of dates in a text requires a precise description of all the possible forms. This article presents a detailed study of the sentence Ceci est arrivé le jeudi 3 avril 1986 à huit heure cinq (this happened thursday april the third 1986 at five past eight) according to the transformational methods developed by Z.S. Harris and M. Gross. This sentence is considered as derived from a more complete one where genitives have been introduced and whose different steps of derivation are nearly all attested (sometimes in old French). The sentences obtained in this way are analysed either by the replacement of the definite article by another determinant, or by its deletion. For each determinant, an automaton is described which identifies the various attested forms. Finally, the influence on the previous forms of modifiers and conjunctions is studied. There follows a short description of the calendar and the resulting constraints.
7

Zemni, Bahia, Wafa Bedjaoui, and Marwa Elsaadany. "Recherche terminologique et traduction automatique." Texto Livre: Linguagem e Tecnologia 14, no. 1 (January 26, 2021): e26501. http://dx.doi.org/10.35699/1983-3652.2021.26501.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est difficile de poser la question de la traduction indépendamment de la technologie et précisément de la traduction automatique intimement liée aux critères de la rapidité, de la fonctionnalité et de la fiabilité. Le présent article entend étudier la recherche terminologique, ainsi que les erreurs de traduction, produites par le logiciel Reverso afin de démontrer de manière exemplifiée non pas l’impuissance de la machine mais dénombrer les différences vis-à-vis des échantillons présentés par les étudiantes du département de traduction de l’Université Princesse Nourah bint Abdulrahman en Arabie Saoudite pour vérifier la façon dont le logiciel gère l’ensemble des problèmes identifiés. Partant du principe selon lequel la traduction automatique n’assure pas toujours la fiabilité requise, ce travail se propose aussi d’envisager un traitement automatisable qui permettrait de surmonter les problèmes d’ordre syntaxique, morphologique et sémantique.
8

Paroubek, Patrick, and Joseph Mariani. "De l’évaluation et ses ressources en traitement automatique des langues." Revue française de linguistique appliquée XXIV, no. 1 (2019): 95. http://dx.doi.org/10.3917/rfla.241.0095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Buvet, Pierre-André. "Compréhension automatique des articles politiques : le traitement des discours rapportés." Éla. Études de linguistique appliquée N° 180, no. 4 (2015): 475. http://dx.doi.org/10.3917/ela.180.0475.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Cori, Marcel. "Des méthodes de traitement automatique aux linguistiques fondées sur les corpus." Langages 171, no. 3 (2008): 95. http://dx.doi.org/10.3917/lang.171.0095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Traitement automatique du language":

1

Colin, Émilie. "Traitement automatique des langues et génération automatique d'exercices de grammaire." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le thème support de cette thèse la génération de paraphrases sur support neuronal. Nos perspectives sont éducatives : créer des exercices de grammaire pour le français. La paraphrase est une opération de reformulation. Nos travaux tendent à attester que les modèles séquence vers séquence ne sont pas de simples répétiteurs mais peuvent apprendre la syntaxe. Nous avons montré, en combinant divers modèles, que la représentation de l'information sous de multiples formes (en utilisant de la donnée formelle (RDF), couplée à du texte pour l'étendre ou le réduire, ou encore seulement du texte) permet d'exploiter un corpus sous différents angles, augmentant la diversité des sorties, exploitant les leviers syntaxiques mis en place. Nous nous sommes penchée sur un problème récurrent, celui de la qualité des données, et avons obtenu des paraphrases avec une haute adéquation syntaxique (jusqu'à 98% de couverture de la demande) et un très bon niveau linguistique. Nous obtenons jusqu'à 83.97 points de BLEU*, 78.41 de plus que la moyenne de nos lignes de base, sans levier syntaxique. Ce taux indique un meilleur contrôle des sorties, pourtant variées et de bonne qualité en l'absence de levier. Nous avons ensuite travaillé depuis du texte brut en passant, pour la génération de phrases, par la production d'une représentation du sens de ce texte qui puisse servir d'entrée à la génération de paraphrases. Le passage à du texte en français était aussi pour nous un impératif. Travailler depuis du texte brut, en automatisant les procédures, nous a permis de créer un corpus de plus de 450 000 couples représentations/phrases, grâce auquel nous avons appris à générer des textes massivement corrects (92% sur la validation qualitative). Anonymiser ce qui n'est pas fonctionnel a participé notablement à la qualité des résultats (68.31 de BLEU, soit +3.96 par rapport à la ligne de base, qui était la génération depuis des données non anonymisées). La représentation formelle de l'information dans un cadre linguistique particulier à une langue est une tâche ardue. Cette thèse offre des pistes de méthodes pour automatiser cette opération. Par ailleurs, nous n'avons pu traiter que des phrases relativement courtes. L'utilisation de modèles neuronaux plus récents permettrait sans doute d'améliorer les résultats. Enfin, l'usage de traits adéquats en sortie permettrait des vérifications poussées. *BLEU (Papineni et al., 2002) : qualité d'un texte sur une échelle de 0 (pire) à 100 (meilleur)
Our perspectives are educational, to create grammar exercises for French. Paraphrasing is an operation of reformulation. Our work tends to attest that sequence-to-sequence models are not simple repeaters but can learn syntax. First, by combining various models, we have shown that the representation of information in multiple forms (using formal data (RDF), coupled with text to extend or reduce it, or only text) allows us to exploit a corpus from different angles, increasing the diversity of outputs, exploiting the syntactic levers put in place. We also addressed a recurrent problem, that of data quality, and obtained paraphrases with a high syntactic adequacy (up to 98% coverage of the demand) and a very good linguistic level. We obtain up to 83.97 points of BLEU-4*, 78.41 more than our baseline average, without syntax leverage. This rate indicates a better control of the outputs, which are varied and of good quality in the absence of syntax leverage. Our idea was to be able to work from raw text : to produce a representation of its meaning. The transition to French text was also an imperative for us. Working from plain text, by automating the procedures, allowed us to create a corpus of more than 450,000 sentence/representation pairs, thanks to which we learned to generate massively correct texts (92% on qualitative validation). Anonymizing everything that is not functional contributed significantly to the quality of the results (68.31 of BLEU, i.e. +3.96 compared to the baseline, which was the generation of text from non-anonymized data). This second work can be applied the integration of a syntax lever guiding the outputs. What was our baseline at time 1 (generate without constraint) would then be combined with a constrained model. By applying an error search, this would allow the constitution of a silver base associating representations to texts. This base could then be multiplied by a reapplication of a generation under constraint, and thus achieve the applied objective of the thesis. The formal representation of information in a language-specific framework is a challenging task. This thesis offers some ideas on how to automate this operation. Moreover, we were only able to process relatively short sentences. The use of more recent neural modelswould likely improve the results. The use of appropriate output strokes would allow for extensive checks. *BLEU : quality of a text (scale from 0 (worst) to 100 (best), Papineni et al. (2002))
2

Saadane, Houda. "Le traitement automatique de l’arabe dialectalisé : aspects méthodologiques et algorithmiques." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAL022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Millour, Alice. "Myriadisation de ressources linguistiques pour le traitement automatique de langues non standardisées." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUL126.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les sciences participatives, et en particulier la myriadisation (crowdsourcing) bénévole, représentent un moyen peu exploité de créer des ressources langagières pour certaines langues encore peu dotées, et ce malgré la présence de locuteurs sur le Web. Nous présentons dans ce travail les expériences que nous avons menées pour permettre la myriadisation de ressources langagières dans le cadre du développement d'un outil d'annotation automatique en parties du discours. Nous avons appliqué cette méthodologie à trois langues non standardisées, en l'occurrence l'alsacien, le créole guadeloupéen et le créole mauricien. Pour des raisons historiques différentes, de multiples pratiques (ortho)graphiques co-existent en effet pour ces trois langues. Les difficultés posées par l'existence de cette variation nous ont menée à proposer diverses tâches de myriadisation permettant la collecte de corpus bruts, d’annotations en parties du discours, et de variantes graphiques.L'analyse intrinsèque et extrinsèque de ces ressources, utilisées pour le développement d'outils d'annotation automatique, montrent l'intérêt d'utiliser la myriadisation dans un cadre linguistique non standardisé : les locuteurs ne sont pas ici considérés comme un ensemble uniforme de contributeurs dont les efforts cumulés permettent d'achever une tâche particulière, mais comme un ensemble de détenteurs de connaissances complémentaires. Les ressources qu'ils produisent collectivement permettent de développer des outils plus robustes à la variation rencontrée.Les plateformes développées, les ressources langagières, ainsi que les modèles de taggers entraînés sont librement disponibles
Citizen science, in particular voluntary crowdsourcing, represents a little experimented solution to produce language resources for some languages which are still little resourced despite the presence of sufficient speakers online. We present in this work the experiments we have led to enable the crowdsourcing of linguistic resources for the development of automatic part-of-speech annotation tools. We have applied the methodology to three non-standardised languages, namely Alsatian, Guadeloupean Creole and Mauritian Creole. For different historical reasons, multiple (ortho)-graphic practices coexist for these three languages. The difficulties encountered by the presence of this variation phenomenon led us to propose various crowdsourcing tasks that allow the collection of raw corpora, part-of-speech annotations, and graphic variants. The intrinsic and extrinsic analysis of these resources, used for the development of automatic annotation tools, show the interest of using crowdsourcing in a non-standardized linguistic framework: the participants are not seen in this context a uniform set of contributors whose cumulative efforts allow the completion of a particular task, but rather as a set of holders of complementary knowledge. The resources they collectively produce make possible the development of tools that embrace the variation.The platforms developed, the language resources, as well as the models of trained taggers are freely available
4

Kessler, Rémy. "Traitement automatique d’informations appliqué aux ressources humaines." Thesis, Avignon, 2009. http://www.theses.fr/2009AVIG0167/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis les années 90, Internet est au coeur du marché du travail. D’abord mobilisée sur des métiers spécifiques, son utilisation s’étend à mesure qu’augmente le nombre d’internautes dans la population. La recherche d’emploi au travers des « bourses à l’emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d’informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d’information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d’outils pour automatiser les flux d’informations lors d’un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d’une entreprise à gérer efficacement et à moindre coût ces flux d’informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l’application des méthodes d’apprentissage afin d’effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l’analyse et l’intégration d’une offre d’emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d’intégrer une offre d’emploi d’une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d’assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d’effectuer un classement pertinent des candidatures. L’utilisation d’un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité
Since the 90s, Internet is at the heart of the labor market. First mobilized on specific expertise, its use spreads as increase the number of Internet users in the population. Seeking employment through "electronic employment bursary" has become a banality and e-recruitment something current. This information explosion poses various problems in their treatment with the large amount of information difficult to manage quickly and effectively for companies. We present in this PhD thesis, the work we have developed under the E-Gen project, which aims to create tools to automate the flow of information during a recruitment process.We interested first to the problems posed by the routing of emails. The ability of a companie to manage efficiently and at lower cost this information flows becomes today a major issue for customer satisfaction. We propose the application of learning methods to perform automatic classification of emails to their routing, combining technical and probabilistic vector machines support. After, we present work that was conducted as part of the analysis and integration of a job ads via Internet. We present a solution capable of integrating a job ad from an automatic or assisted in order to broadcast it quickly. Based on a combination of classifiers systems driven by a Markov automate, the system gets very good results. Thereafter, we present several strategies based on vectorial and probabilistic models to solve the problem of profiling candidates according to a specific job offer to assist recruiters. We have evaluated a range of measures of similarity to rank candidatures by using ROC curves. Relevance feedback approach allows to surpass our previous results on this task, difficult, diverse and higly subjective
5

Coria, Juan Manuel. "Continual Representation Learning in Written and Spoken Language." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'apprentissage automatique a récemment connu des avancées majeures, mais les modèles actuels sont généralement entraînés une fois sur une tâche cible et leurs paramètres sont rarement révisés.Ce problème affecte les performances après la mise en production car les spécifications des tâches et les données peuvent évoluer avec le temps.Pour résoudre ce problème, l'apprentissage continu propose un entraînement au fil du temps, à mesure que de nouvelles données sont disponibles.Cependant, les modèles entraînés de cette manière souffrent d'une perte de performance sur les exemples déjà vus, un phénomène appelé oubli catastrophique.De nombreuses études ont proposé différentes stratégies pour prévenir l'oubli, mais elles s'appuient souvent sur des données étiquetées rarement disponibles en pratique. Dans cette thèse, nous étudions l'apprentissage continu pour la langue écrite et parlée.Notre objectif est de concevoir des systèmes autonomes et auto-apprenants capables d'exploiter les données disponibles sur le terrain pour s'adapter aux nouveaux environnements.Contrairement aux travaux récents sur l'apprentissage de représentations à usage général, nous proposons d'exploiter des représentations adaptées à une tâche cible.En effet, ces dernières pourraient être plus faciles à interpréter et à exploiter par des méthodes non supervisés et plus robustes à l'oubli, comme le clustering. Dans ce travail, nous améliorons notre compréhension de l'apprentissage continu dans plusieurs contextes.Nous montrons que les représentations spécifiques à une tâche permettent un apprentissage continu efficace à faibles ressources, et que les prédictions d'un modèle peuvent être exploitées pour l'auto-apprentissage
Although machine learning has recently witnessed major breakthroughs, today's models are mostly trained once on a target task and then deployed, rarely (if ever) revisiting their parameters.This problem affects performance after deployment, as task specifications and data may evolve with user needs and distribution shifts.To solve this, continual learning proposes to train models over time as new data becomes available.However, models trained in this way suffer from significant performance loss on previously seen examples, a phenomenon called catastrophic forgetting.Although many studies have proposed different strategies to prevent forgetting, they often rely on labeled data, which is rarely available in practice. In this thesis, we study continual learning for written and spoken language.Our main goal is to design autonomous and self-learning systems able to leverage scarce on-the-job data to adapt to the new environments they are deployed in.Contrary to recent work on learning general-purpose representations (or embeddings), we propose to leverage representations that are tailored to a downstream task.We believe the latter may be easier to interpret and exploit by unsupervised training algorithms like clustering, that are less prone to forgetting. Throughout our work, we improve our understanding of continual learning in a variety of settings, such as the adaptation of a language model to new languages for sequence labeling tasks, or even the adaptation to a live conversation in the context of speaker diarization.We show that task-specific representations allow for effective low-resource continual learning, and that a model's own predictions can be exploited for full self-learning
6

Grandchamp, Jean-Michel. "L'argumentation dans le traitement automatique de la langue." Paris 11, 1996. http://www.theses.fr/1996PA112016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Mela, Augusta. "Traitement automatique de la coordination par et." Paris 13, 1992. http://www.theses.fr/1992PA132040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse des constructions coordonnées a toujours constitué un centre d'intérêt aussi bien en linguistique théorique qu'en linguistique computationnelle. Le phénomène de la coordination par "et" est à la fois large et subtil. Une chaîne conjonctionnelle peut apparaître à droite de presque n'importe quel élément d'une chaîne, constituant ou non-constituant mais pas n'importe où. Cela pose à la fois le problème théorique de rendre compte précisément de l'ensemble des constructions autorisées et le problème calculatoire d'analyser ces constructions le plus efficacement possible. Dans cette thèse nous dressons un inventaire des difficultés occasionnées par ces constructions; nous présentons un état de l'art: précisement nous exposons comme différents formalismes syntaxiques, (tg, gpsg, lfg, ccg) abordent ces problèmes. Nous en tirons des conséquences concernant le choix d'un cadre formel adéquat pour la description de la coordination. Nous proposons un critère de coordination base sur le pouvoir constructeur de têtes lexicales. Nous prétendons que ce critère rend compte des phénomènes structurels que sont les coordinations de constituants de même catégorie et des coordinations de plus d'un constituant, et qu'il est pertinent mais insuffisant pour la coordination de catégories différentes et la coordination à trouée qui sont des phénomènes plus sémantiques.
8

Moncecchi, Guillermo. "Recognizing speculative language in research texts." Paris 10, 2013. http://www.theses.fr/2013PA100039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une méthodologie pour résoudre des problèmes de classification, en particulier ceux concernant le classement séquentiel pour les tâches de traitement du langage naturel. Elle propose l'utilisation d'une méthode itérative, basée sur l'analyse des erreurs, pour améliorer la performance de classification. Ce sont des experts du domaine qui suggèrent l'intégration des connaissances spécifiques du domaine dans le processus d'apprentissage automatique. Nous avons appliqué et évalué la méthodologie dans deux tâches liées à la détection des phénomènes de « hedging » dans des textes scientifiques: celle de la détection de repères de « hedging » et celle de l’identification de la portée des repères détectés dans les phrases. Les résultats sont prometteurs: pour la première tâche, nous avons amélioré les résultats de base en 2,5 points en termes de F_mesure au moyen de l’intégration des informations de cooccurrence, tandis que pour la détection de la portée, l'incorporation des informations sur la syntaxe de la phrase nous a permis d'améliorer les performances de classification en F-mesure de 0,712 à un nombre final de 0,835. Par rapport à l'état de l'art des méthodes, les résultats sont compétitifs, ce qui suggère que l'approche de l'amélioration des classificateurs basée uniquement sur l’analyse des erreurs dans une partie du corpus dédiée seulement à cette tâche peut être utilisée avec succès dans d'autres tâches similaires. De plus, cette thèse propose un schéma de classes pour représenter des analyse des phrases dans une structure de donnés unique, y compris les résultats de divers analyses linguistiques. Cela nous permet de mieux gérer le processus itératif d'amélioration du classificateur, où des ensembles d'attributs différents pour l'apprentissage sont utilisés à chaque itération. Nous proposons également de stocker des attributs dans un modèle relationnel, plutôt que des structures traditionnelles à base de texte, pour faciliter l'analyse et la manipulation de données nécessaires pour l’apprentissage
This thesis presents a methodology to solve certain classification problems, particularly those involving sequential classification for Natural Language Processing tasks. It proposes the use of an iterative, error-based approach to improve classification performance, suggesting the incorporation of expert knowledge into the learning process through the use of knowledge rules. We applied and evaluated the methodology to two tasks related with the detection of hedging in scientific articles: those of hedge cue identification and hedge cue scope detection. Results are promising: for the first task, we improved baseline results by 2. 5 points in terms of F-score incorporating cue cooccurence information, while for scope detection, the incorporation of syntax information and rules for syntax scope pruning allowed us to improve classification performance from an F-score of 0. 712 to a final number of 0. 835. Compared with state-of-the-art methods, results are competitive, suggesting that the approach of improving classifiers based only on committed errors on a held out corpus could be successfully used in other, similar tasks. Additionally, this thesis proposes a class schema for representing sentence analysis in a unique structure, including the results of different linguistic analysis. This allows us to better manage the iterative process of classifier improvement, where different attribute sets for learning are used in each iteration. We also propose to store attributes in a relational model, instead of the traditional text-based structures, to facilitate learning data analysis and manipulation
9

Le, Kien Van. "Generation automatique de l'accord du participe passe." Paris 7, 1987. http://www.theses.fr/1987PA077257.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le maximum de regles d'accord du participe passe des verbes conjugues avec avoir sont reunies. Il a ete constate que ces regles sont imprecises, insuffisantes et non formelles pour un traitement systematique de l'accord du participe passe. Sont alors introduites les notions de complement d'objet direct, de determinant, de syntagme attributif, de verbe a completive, de verbe sans completive, de verbe operateur. . . Une representation formelle des constructions relatives au probleme etudie est proposee. Finalement, il est montre comment, a partir d'un terminal, il est possible de communiquer et dialoguer avec l'ordinateur par l'intermediaire du programme "generation automatique de l'accord du participe passe
10

Nasser, Eldin Safa. "Synthèse de la parole arabe : traitement automatique de l'intonation." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12745.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail décrit dans ce mémoire porte sur la modélisation de l'intonation. Le but de cette modélisation est d'améliorer le naturel de la parole produite par un système de synthèse de la parole arabe à partir du texte. Le naturel de la parole est fortement influencé par les paramètres prosodiques que sont l'intonation, l'intensité et le rythme. Dans cette étude nous nous intéressons essentiellement à l'analyse de l'intonation en vue d'obtenir des modèles intonatifs concernant l'intonation des phrases affirmatives et interrogatives, verbales et nominales. Nous procédons par une analyse descriptive de l'intonation, suivie d'une modélisation de variations de fréquence fondamentale. Nous avons utilisé la méthode de stylisation issue de l'école hollandaise et la méthode d'analyse par synthèse pour modéliser l'intonation. Nous aboutissons à une formalisation des règles pour le calcul des contours intonatifs qui dépend du nombre et le type de syllabes qui constituent la phrase et sa modalité. Le modèle intonatif est implémenté au niveau de deux systèmes de synthèse de la parole arabe à partir du texte : système de synthèse par règle utilisant le synthétiseur par formants (KLATT) et système de synthèse concaténation utilisant les diphones. Les phrases synthétisées avec les modèles sont évaluées par un groupe d'étudiants palestiniens de l'université Alquds. Les résultats obtenus montrent que le modèle d'intonation développé est capable de produire une parole de synthèse proche du naturel sans l'utilisation d'un analyseur syntaxique.

Книги з теми "Traitement automatique du language":

1

Philip, Miller, and Torris Thérèse, eds. Formalismes syntaxiques pour le traitement automatique du langage naturel. Paris: Hermes, 1990.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Biskri, Ismaïl, and Adel Jebali. Traitement automatique des langues naturelles: De l'analyse à l'application. Paris: Hermès science publications, 2011.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Namer, Fiammetta. Morphologie, lexique et traitement automatique des langues: L'analyseur DériF. Paris: Hermès science publications, 2009.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Mathieu, Yvette Yannick. Les verbes de sentiment: De l'analyse linguistique au traitement automatique. Paris: CNRS éditions, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Powers, David M. W. Machine learning of natural language. London: Springer-Verlag, 1989.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Anna, Dahl Deborah, ed. Practical spoken dialog systems. Dordrecht: Kluwer Academic Publishing, 2004.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Brigitte, Grau, and Chevallet Jean-Pierre, eds. La recherche d'informations précises: Traitement automatique de la langue, apprentissage et connaissances pour les systèmes de question-réponse. Paris: Hermès science publications, 2008.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Sabourin, Conrad. Computational text understanding: Natural language programming, argument analysis : bibliography. Montréal: Infolingua, 1994.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Goshawke, Walter. Computer translation of natural language. Wilmslow, United Kingdom: Sigma Press, 1987.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

C, Garrod S., and Pickering Martin J. 1966-, eds. Language processing. Hove, East Sussex, UK: Psychology Press, 1999.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Traitement automatique du language":

1

Labelle, Jacques. "Traitement automatique et synonymie en français." In Lingvisticæ Investigationes Supplementa, 263. Amsterdam: John Benjamins Publishing Company, 1995. http://dx.doi.org/10.1075/lis.20.23lab.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Sagot, Benoît. "Construction de ressources lexicales pour le traitement automatique des langues." In Lingvisticæ Investigationes Supplementa, 217–54. Amsterdam: John Benjamins Publishing Company, 2013. http://dx.doi.org/10.1075/lis.30.07sag.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Léon, Jacqueline. "La mécanisation de dictionnaire dans les premières expériences de traduction automatique (1948-1960)." In Studies in the History of the Language Sciences, 331. Amsterdam: John Benjamins Publishing Company, 1999. http://dx.doi.org/10.1075/sihols.95.41leo.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Gicquel, Quentin, Denys Proux, Pierre Marchal, Caroline Hagége, Yasmina Berrouane, Stéfan J. Darmoni, Suzanne Pereira, Frédérique Segond, and Marie-Héléne Metzger. "Évaluation d’un outil d’aide á l’anonymisation des documents médicaux basé sur le traitement automatique du langage naturel." In Informatique et Santé, 165–76. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_15.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Colombat, Bernard. "Le traitement de la construction verbale dans la grammaire latine humaniste." In Studies in the History of the Language Sciences, 63. Amsterdam: John Benjamins Publishing Company, 2003. http://dx.doi.org/10.1075/sihols.99.05col.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

ŠMILAUER, Ivan. "La conjugaison tchèque à l’usage des machines et des hommes : quelques réflexions." In Des langues calculables à l'homme incalculable, 165–76. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.5273.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article traite quelques questions relatives à la conjugaison tchèque dans une perspective de traitement automatique des langues et de l’enseignement du tchèque en tant que langue étrangère. Après une présentation succincte de la conjugaison, sont traités de manière plus détaillée le classement de types de conjugaison et la génération des formes du présent de l’indicatif et de l’infinitif. Un cadeau spécial pour Patrice Pognan vient à la fin.
7

Larsonneur, Claire. "Alexa, Siri : la diversité linguistique au prisme des agents conversationnels." In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ?, 179–97. Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0179.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les assistants intelligents, comme Alexa ou Siri, accompagnent la numérisation de nombre d’interactions humaines, qu’il s’agisse de comportements d’achat, de recherche d’information ou de mise en relation entre personnes. Conçus au départ dans un environnement anglophone par Amazon, Apple ou Microsoft, ces outils servent les stratégies de gains de parts de marchés pour ces entreprises qui s’en servent comme portail d’accès à leurs services. Les assistants traduisent de la voix en texte et vice-versa et doivent pouvoir s’adapter aux contraintes locales en termes d’accents, de politique de genre ou de codes culturels par exemple, ce qui serait impossible à grande échelle sans l’utilisation des techniques de traduction neuronale. Dans cette communication, on reviendra sur les politiques linguistiques qui ont accompagné le développement d’Alexa et de Siri, en en retraçant l’historique. Puis on reviendra sur les enjeux linguistiques qu’ils posent, notamment dans le traitement des erreurs et omissions, et leur articulation à un écosystème d’outils automatisés de maniement du langage, lesquels risquent à terme de produire une standardisation des usages de la langue, au sein de chaque langue et par calque vis-à-vis de l’anglais américain. Enfin on explorera la question des enjeux sociétaux, économiques et éthiques associés à l’usage généralisé de tels outils, conçus et mis en œuvre par des acteurs économiques en situation hyperdominante. Se posent notamment des questions de sécurité, de gestion des données, de censure…
8

Chaumartin, François-Régis, and Pirmin Lemberger. "3. La représentation du sens." In Le traitement automatique des langues, 81–121. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0081.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Chaumartin, François-Régis, and Pirmin Lemberger. "2. Les bases de la linguistique informatique." In Le traitement automatique des langues, 63–80. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Chaumartin, François-Régis, and Pirmin Lemberger. "5. L’approche statistique." In Le traitement automatique des langues, 173–226. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0173.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Traitement automatique du language":

1

Raynal, Céline, Vanessa Andreani, Dominique Vasseur, Zakarya Chami, and Eric Hermann. "Apport du Traitement Automatique des Langues pour la catégorisation de retours d'expérience." In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61744.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Andreani, V., E. Hermann, C. Raynal, and E. Carayon. "Apport des outils de traitement automatique des langues pour l’analyse de textes procéduraux." In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56074.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Simon, A. C., M. Avanzi, and J. P. Goldman. "La détection des proéminences syllabiques. Un aller-retour entre l'annotation manuelle et le traitement automatique." In Congrès Mondial de Linguistique Française 2008. Les Ulis, France: EDP Sciences, 2008. http://dx.doi.org/10.1051/cmlf08256.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Desnous, Florent, Anthony Larcher, and Sylvain Meignier. "Impact de la détection de la parole pour différentes tâches de traitement automatique de la parole." In XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-63.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Bestchastnova, Eugénie Bonner. "La prise en compte des particularités psychologiques dans l’acquisition d’une langue de spécialité sur l’exemple de l’accentuation en français." In Language for International Communication. University of Latvia Press, 2023. http://dx.doi.org/10.22364/lincs.2023.14.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de nos recherches sur l’apprentissage des langues de spécialité nous nous intéressons particulièrement à la phonétique, notamment l’accentuation, qui est une sorte de porte d’entrée d’une langue. Les recherches dans le domaine du traitement de l’accent, en linguistique française, ne se limitent souvent qu’à l’aspect purement physique ou phonétique. Notre hypothèse est que l’on ne peut rendre compte de l’accent en français sans prendre en compte, en particulier, la psychologie de l’individu, ce qui suppose le recours aux outils que fournit une autre discipline que la linguistique elle-même : la Psychologie. La vérification de notre hypothèse repose sur un corpus constitué de séquences vocales extraites de l’enregistrement de conversations de tous les jours de notre groupe expérimental. 40 personnes ont été examinées. Après recueil de leurs paramètres sociophysiologique, linguistique et culturel, ont été déterminés leurs types psychologiques et ensuite analysés, de façon d’abord empirique, puis instrumentale, les échantillons de leurs productions verbales quotidiennes enregistrées. Sur la base des conclusions tirées de ces observations, on peut confirmer le lien entre, d’une part, les paramètres employés par la personne pour produire l’accent, sa place, le nombre d’accents et en général sa manière d’accentuer, et, d’autre part, son type psychologique.

До бібліографії