Academic literature on the topic 'Recherche automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Recherche automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Recherche automatique"

1

Wilss, Wolfram. "Basic Concepts of MT." Meta 38, no. 3 (September 30, 2002): 403–13. http://dx.doi.org/10.7202/004608ar.

Full text
Abstract:
Résumé Malgré les progrès réalisés dans l'élaboration des algorithmes de parsage, les systèmes de traduction automatiques, même les plus sophistiqués, se heurtent encore à de nombreux problèmes dont ceux de la complexité syntaxique, de l'ambiguïté lexicale et de l'analyse interphrastique. La compréhension de la corrélation entre les diverses unités syntagmatiques dépend des connaissances linguistiques, extralinguistiques et contextuelles dont la combinaison permet justement au traducteur humain de résoudre de manière quasi automatique les problèmes d'ambiguïté. La mise sur pied d'un système totalement indépendant de l'action humaine relevant aujourd'hui de l'utopie, la recherche en traduction automatique devrait davantage s'orienter vers la conception de micro-systèmes utilisables dans des domaines précis.
APA, Harvard, Vancouver, ISO, and other styles
2

Villard, Masako. "Traduction automatique et recherche cognitive." Histoire Épistémologie Langage 11, no. 1 (1989): 55–84. http://dx.doi.org/10.3406/hel.1989.2290.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Zemni, Bahia, Wafa Bedjaoui, and Marwa Elsaadany. "Recherche terminologique et traduction automatique." Texto Livre: Linguagem e Tecnologia 14, no. 1 (January 26, 2021): e26501. http://dx.doi.org/10.35699/1983-3652.2021.26501.

Full text
Abstract:
Il est difficile de poser la question de la traduction indépendamment de la technologie et précisément de la traduction automatique intimement liée aux critères de la rapidité, de la fonctionnalité et de la fiabilité. Le présent article entend étudier la recherche terminologique, ainsi que les erreurs de traduction, produites par le logiciel Reverso afin de démontrer de manière exemplifiée non pas l’impuissance de la machine mais dénombrer les différences vis-à-vis des échantillons présentés par les étudiantes du département de traduction de l’Université Princesse Nourah bint Abdulrahman en Arabie Saoudite pour vérifier la façon dont le logiciel gère l’ensemble des problèmes identifiés. Partant du principe selon lequel la traduction automatique n’assure pas toujours la fiabilité requise, ce travail se propose aussi d’envisager un traitement automatisable qui permettrait de surmonter les problèmes d’ordre syntaxique, morphologique et sémantique.
APA, Harvard, Vancouver, ISO, and other styles
4

Houde, Serge. "L’apport des dictionnaires électroniques pour l’élaboration de thésaurus." Analyse de l’information textuelle 38, no. 2 (February 13, 2015): 91–95. http://dx.doi.org/10.7202/1028613ar.

Full text
Abstract:
Les dictionnaires lisibles par machine ont fait l’objet de plusieurs recherches orientées vers leur utilisation pour la construction automatique de thésaurus et de bases de données lexicales. Le compte rendu de ces recherches fait état des méthodes utilisées pour l’extraction automatique des informations contenues dans ces dictionnaires et précise la nature des données ainsi recueillies. L’auteur présente un projet de recherche utilisant le Robert électronique sur CD-ROM et mené à l’École de bibliothéconomie et des sciences de l’information de l’Université de Montréal dans le profil « Analyse de l’information et bases de données ». Ce projet consiste à construire, à l’aide du logiciel SATO et à partir d’une liste de termes du thésaurus du Centre des Données sur les émissions du Service de l’Information de Radio-Canada, un thésaurus contenant seulement les informations fournies par le dictionnaire et à le comparer au thésaurus-source.
APA, Harvard, Vancouver, ISO, and other styles
5

Kandeel, Rana. "Les stratégies de la post-édition en traduction automatique des proverbes par des apprenants FLE et de traduction." Texto Livre: Linguagem e Tecnologia 14, no. 3 (August 13, 2021): e29459. http://dx.doi.org/10.35699/1983-3652.2021.29459.

Full text
Abstract:
Cette recherche a pour objectif d’analyser les stratégies utilisées dans la post-édition des proverbes traduits automatiquement du français en arabe par des apprenants du Français Langue Étrangère (FLE). Nous présenterons d’abord les fondements théoriques de la traduction automatique des proverbes ainsi que l’état de l’art. L’étude utilise une approche méthodologique mixte. La méthode quantitative comprend un questionnaire distribué sur les étudiantes de FLE pour connaître l’outil de traduction le plus utilisé dans la traduction automatique. La méthode qualitative est axée sur la collecte des données concernant les erreurs de traduction ainsi que sur l’observation directe des stratégies mises en œuvre dans la post-édition de proverbes traduits par Google Translate. Les résultats de l’étude montrent que Google Translate est l’outil le plus utilisé en traduction et que les erreurs de traduction automatique sont d’ordre syntaxique, lexical, sémantique et stylistique. Les stratégies mises en œuvre dans la post-édition sont variées : découpage des proverbes en unités linguistiques pour la recherche de sens, recours à une langue-pivot (l’anglais), et recherche des équivalents dans des ressources de référence. L’étude conclut que bien que la traduction automatique des proverbes dans les paires de langues éloignées telles que le français et l’arabe semble complexe, Google Translate a constitué un outil d’aide à la compréhension des mots constitutifs des proverbes pour des apprenants FLE, ce qui a permis la compréhension du sens des expressions proverbiales, de trouver leurs équivalents et de les post-éditer.
APA, Harvard, Vancouver, ISO, and other styles
6

Zemni, Bahia, Farouk Bouhadiba, and Mimouna Zitouni. "Recherche cognitive et traduction automatique en jurilinguistique." Texto Livre: Linguagem e Tecnologia 15 (October 18, 2021): e27031. http://dx.doi.org/10.35699/1983-3652.2022.27031.

Full text
Abstract:
De par ses caractéristiques morpho-phonologiques, morphosyntaxiques, lexicales et autres systèmes et sous-systèmes de son fonctionnement, la langue arabe représente un système de non-concaténation (ou non-enchaînement des morphèmes). Elle diffère dans ce sens des langues Indo-européennes – à systèmes de concaténation – et demeure pour ainsi dire, une langue assez complexe à gérer dans le domaine du Traitement Automatique des Langues(TAL). Ceci, surtout lorsqu’il s’agit de traduire automatiquement des faits de langue porteurs d’éléments culturels propres à cette langue. Les données examinées dans cet article sont révélatrices de hiatus quant à la traduction automatique de textes juridiques arabes vers d’autres langues telles que le français ou l’anglais. L’apparentement génétique différent des langues en question pose non seulement des problèmes d’ordre linguistique dans le passage d’une langue vers une autre, mais aussi et surtout que les textes juridiques en langue arabe sont porteurs de poids sémantiques, culturels, religieux et civilisationnels qui ne reflètent pas toujours les mêmes référents ou gestalt des langues cibles. Il en est conclu que l’intervention humaine dans ce processus de traduction est plus que nécessaire comme le révèle l’étude des cas de textes juridiques en Arabie Saoudite.
APA, Harvard, Vancouver, ISO, and other styles
7

Wormwood, M. J. "MT Project at University of Innsbruck." Meta 37, no. 2 (September 30, 2002): 302–15. http://dx.doi.org/10.7202/004620ar.

Full text
Abstract:
Résumé Ce compte rendu s'inscrit dans le cadre d'un projet de recherche ayant pour objectif une comparaison entre traduction automatique et traduction humaine. Un exemple de traduction (allemand-anglais) effectuée par un programme interactif est examiné et comparé à la traduction faite par des étudiants-traducteurs. Le texte choisi, un texte technico-commercial relativement simple, est d'un type réputé apte à la traduction automatique. Les difficultés les plus fréquentes rencontrées par la traduction automatique aux différents niveaux linguistiques sont commentées, et les aspects essentiels d'une traduction dont le traducteur humain peut tenir compte mais non la machine évoqués.
APA, Harvard, Vancouver, ISO, and other styles
8

Courrier, Yves. "L’indexation automatique : état de la question et perspectives d’avenir." Documentation et bibliothèques 23, no. 2 (January 9, 2019): 59–72. http://dx.doi.org/10.7202/1055247ar.

Full text
Abstract:
L’auteur décrit d’abord le principe de l’édition automatique d’index, en particulier les index permutés et le système PRECIS, et souligne les tendances actuelles. Il expose ensuite les diverses méthodes utilisées pour extraire automatiquement les mots-clés : les méthodes statistiques et les méthodes linguistiques. Pour ces dernières, il explicite les méthodes syntaxiques et les méthodes sémantiques. Il montre enfin que la recherche en intelligence artificielle est pertinente pour l’indexation automatique mais qu’elle n’est pas encore assez développée pour apporter des résultats substantiels.
APA, Harvard, Vancouver, ISO, and other styles
9

Jacqmin, Laurence. "La traduction automatique au service de l’utilisateur monolingue." Meta 37, no. 4 (September 30, 2002): 610–23. http://dx.doi.org/10.7202/003237ar.

Full text
Abstract:
Résumé L'article présente le projet de recherche en traduction automatique, Babel-Research, qui a débuté en janvier 1988 sous l'égide de l'Université Libre de Bruxelles. Il a récemment abouti à la réalisation a'un prototype de traduction de correspondance commerciale français-anglais. Le système est conçu comme un outil de travail pour un(e) secrétaire monolingue, ce qui impose certaines contraintes à l'architecture du système. Puisque l'utilisateur n'est pas à même de corriger le texte cible, le système doit garantir une qualité de traduction satisfaisante. Notre principale voie de recherche consiste à évaluer d'une part si un système basé sur la pré-édition normative du texte source et l'interaction avec son rédacteur en cours de traduction offre une solution valable aux systèmes à postédition plus courants ; et à évaluer d'autre part quelle couverture syntaxique et sémantique ce type de système peut comparativement proposer. L’article présente d'abord les options théoriques du projet : architecture de transfert, modularité computationnelle, paradigme d'unification. Ensuite, il décrit le prototype, Babel-2, en mettant l'accent sur ses caractéristiques originales. Premièrement, nous avons mis au point une stratégie d'analyse en « pas de deux », qui combine les avantages des stratégies descendante et ascendante tout en contournant leurs inconvénients. En bref, un premier mouvement établit les relations de constituance, un second les liens de dépendance. Deuxièmement, Babel-2 reconnaît et traduit de manière adéquate divers types d'idiomes français. Troisièmement, il résout une série de problèmes de traduction complexes tels les nuances aspectuelles, le génitif saxon, les changements d'ordre des mots. Il traite également les constructions qui présentent des transformations structurelles telles que suppression d'arguments, adjonction d'arguments, inversion des relations de dépendance... Un regard prospectif vers les recherches futures clôture la présentation.
APA, Harvard, Vancouver, ISO, and other styles
10

Pierrel, Jean-Marie. "Un ensemble de ressources de référence pour l’étude du français : tlfi, frantext et le logiciel stella." Revue québécoise de linguistique 32, no. 1 (February 20, 2006): 155–76. http://dx.doi.org/10.7202/012248ar.

Full text
Abstract:
Résumé Les recherches en traitement automatique des langues nécessitent de vastes ressources de référence : corpus textuels, dictionnaires informatiques, outils de traitement. Cette contribution présente les ressources linguistiques informatisées du laboratoire atilf (Analyse et Traitement Informatique de la Langue Française) accessibles sur la toile ainsi que leur diversité d’exploitation potentielle. Regroupant un ensemble de plus de 3600 textes de langue française réunis dans frantext et divers dictionnaires, lexiques et autres bases de données, ces ressources exploitent les fonctionnalités du logiciel stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Recherche automatique"

1

Pradilla, Magdalena. "Recherche de descripteurs en indexation automatique des documents /." Paris : Centre de recherche en informatique appliquée aux sciences sociales, 1987. http://catalogue.bnf.fr/ark:/12148/cb34973730h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Moreau, Fabienne. "Revisiter le couplage traitement automatique des langues et recherche d'information." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524514.

Full text
Abstract:
La principale difficulté des systèmes de recherche d'information (SRI) est d'établir une correspondance entre l'information recherchée par un utilisateur et celle contenue dans leur base documentaire. Pour y parvenir, ils tentent généralement un appariement des mots de la requête posée avec ceux représentant le contenu des documents. Un tel mécanisme, fondé sur une simple comparaison de chaînes de caractères, ne permet cependant pas de prendre en compte le fait qu'un même mot peut posséder plusieurs sens et qu'une même idée peut être formulée de différentes manières. Pour pallier ces difficultés, une solution assez naturelle est de se tourner vers le traitement automatique des langues (TAL) qui, en considérant les mots non comme des chaînes de caractères mais comme des entités linguistiques à part entière, doit offrir un appariement requête-document plus pertinent. Les résultats des nombreux travaux proposant d'enrichir la RI par des informations linguistiques sont toutefois souvent décevants, peu tranchés et contradictoires. Pour comprendre ces faibles résultats et savoir comment les améliorer, nous abordons le couplage TAL-RI sous des angles nouveaux. Contrairement aux autres études, nous choisissons d'exploiter pleinement la richesse de la langue en combinant plusieurs informations linguistiques appartenant aux niveaux morphologique, syntaxique et sémantique. Afin de tester l'intérêt de coupler ces informations, nous proposons une plate-forme intégrant en parallèle ces multiples indices ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces connaissances, et, via une analyse originale des corrélations qu'elles présentent, des cas de complémentarité intéressants. Grâce à une méthode d'apprentissage supervisé qui fusionne les listes de résultats fournis par chaque index linguistique et s'adapte automatiquement aux caractéristiques des requêtes, nous prouvons, par des résultats plus stables qu'habituellement, le gain effectif du couplage d'informations linguistiques multi-niveaux. Enfin, nous proposons une méthode novatrice d'acquisition par apprentissage non supervisé d'informations morphologiques qui permet d'accroître encore l'impact de ces connaissances efficaces sur les performances de notre SRI. Nous montrons ainsi qu'en construisant des outils plus souples et plus adaptés aux contraintes de la RI, l'apport du TAL dans ce domaine est réel.
APA, Harvard, Vancouver, ISO, and other styles
3

Riadh, Ksantini. "Analyse multirésolution et recherche d'images." Sherbrooke : Université de Sherbrooke, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Haddoud, Mounia. "Indexation et extraction de termes-clés pour la recherche d'information." Rouen, 2016. http://www.theses.fr/2016ROUES010.

Full text
Abstract:
Dans cette thèse, je me suis intéressée à deux problèmes de fouille de textes : l’extraction automatique de termes-clés dans des documents textuels et la classification de textes. Pour le problème d’extraction automatique de termes-clés, j’ai défini une nouvelle mesure, le DPM-index, qui discrimine les phrases (n-grammes) qui se chevauchent dans un document. J’ai aussi développé un nouveau système d’extraction de termes-clés basé sur l’apprentissage supervisé qui combine 18 descripteurs statistiques. J’ai expérimentalement comparé mes résultats à ceux de 21 méthodes d’extraction de termes-clés sur le corpus d’articles scientifiques SemEval-2010/Task-5. Ma méthode augmente d’un taux de 13 % la reconnaissance des termes-clés mesurée par le F-score. En particulier, le DPM-index augmente la reconnaissance de mon système d’extraction de termes-clés de 9%. Je montre également que quel que soit le paradigme d’apprentissage supervisé (boosting, bagging et régression) sur ces données pour combiner les 18 descripteurs mon système obtient les meilleurs performances. Pour le problème de classification de textes dans des catégories prédéfinies, j’ai proposé 80 métriques de pondération de termes jamais utilisées pour ce problème et je les ai comparé à 16 métriques de la littérature. Alors que de nombreux travaux antérieurs ont montré l’intérêt d’utiliser une métrique particulière, mes expérimentations suggèrent que les résultats obtenus par ces métriques peuvent être fortement dépendants de la distribution des documents dans les catégories et des mesures de performances utilisées. La solution que j’ai proposée consiste à combiner les métriques proposées afin d’améliorer la qualité de la classification. Plus précisément, j’ai montré sur trois types de corpus différents (ayant des distributions catégorielles différentes) que l’utilisation d’un classifieur SVM qui combine les sorties de classifieurs SVM (qui utilisent chacun une métrique de pondération différente) classe mieux les documents quel que soit le type corpus et quelles que soit les mesures de performance utilisées. La seconde contribution principale apportée au problème de classification est une représentation étendue des termes d’un document dans un espace vectoriel qui permet d’améliorer la prédiction de mon classifieur de textes
In this thesis, I focused on two text mining problems : automatic keyphrase extraction in text documents and texts classification. For the automatic keyphrase extraction problem, i define the document phrase maximality index (DPM-index), a new measure to discriminate overlapping keyphrase candidates in a text document. As an application i developed a supervised learning system which uses 18 statistical features, among them the DPMindex and 5 other new features. I experimentally compare my results to those of 21 keyphrase extraction methods on SemEval-2010/Task-5 scientific articles corpus. When all the systems extract 10 keyphrases per document, my method enhances by 13% the F-Score of the best system. In particular, the DPM-index feature increases the F-Score of my keyphrase extraction system by a rate of 9%. This makes the DPM-index contribution comparable to that of the well-known TFIDF measure on such a system. For the text classification problem, i propose 80 metrics never used for the term weighting problem and compare them to 16 functions of the literature. A large number of these metrics were initially proposed for other data mining problems : feature selection, classification rules and term collocations. While many previous works have shown the merits of using a particular metric, my experience suggests that the results obtained by such metrics can be highly dependent on the label distribution on the corpus and on the performance measures used (microaveraged or macroaveraged F1-Score). The solution I propose consists in combining the metrics in order to improve the classification. More precisely, i show that using a SVM classifier which combines the outputs of SVM classifiers that utilize different metrics performs well in all situations. The second main contribution is an extended term representation for the vector space model that improves significantly the prediction of the text classifier
APA, Harvard, Vancouver, ISO, and other styles
5

Claveau, Vincent. "Acquisition automatique de lexiques sémantiques pour la recherche d'information." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00524646.

Full text
Abstract:
De nombreuses applications du traitement automatique des langues (recherche d'information, traduction automatique, etc.) requièrent des ressources sémantiques spécifiques à leur tâche et à leur domaine. Pour répondre à ces besoins spécifiques, nous avons développé ASARES, un système d'acquisition d'informations sémantiques lexicales sur corpus. Celui-ci répond à un triple objectif : il permet de fournir des résultats de bonne qualité, ses résultats et le processus ayant conduit à leur extraction sont interprétables, et enfin, il est assez générique et automatique pour être aisément portable d'un corpus à un autre. Pour ce faire, ASARES s'appuie sur une technique d'apprentissage artificiel symbolique --- la programmation logique inductive --- qui lui permet d'inférer des patrons d'extraction morphosyntaxiques et sémantiques à partir d'exemples des éléments lexicaux sémantiques que l'on souhaite acquérir. Ces patrons sont ensuite utilisés pour extraire du corpus de nouveaux éléments. Nous montrons également qu'il est possible de combiner cette approche symbolique avec des techniques d'acquisition statistiques qui confèrent une plus grande automaticité à ASARES. Pour évaluer la validité de notre méthode, nous l'avons appliquée à l'extraction d'un type de relations sémantiques entre noms et verbes définies au sein du Lexique génératif appelées relations qualia. Cette tâche d'acquisition revêt deux intérêts principaux. D'une part, ces relations ne sont définies que de manière théorique ; l'interprétabilité linguistique des patrons inférés permet donc d'en préciser le fonctionnement et les réalisations en contexte. D'autre part, plusieurs auteurs ont noté l'intérêt de ce type de relations dans le domaine de la recherche d'information pour donner accès à des reformulations sémantiquement équivalentes d'une même idée. Grâce à une expérience d'extension de requêtes, nous vérifions expérimentalement cette affirmation : nous montrons que les résultats d'un système de recherche exploitant ces relations qualia, acquises par ASARES, sont améliorés de manière significative quoique localisée.
APA, Harvard, Vancouver, ISO, and other styles
6

Morneau, Maxime. "Recherche d'information sémantique et extraction automatique d'ontologie du domaine." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23828/23828.pdf.

Full text
Abstract:
Il peut s'avérer ardu, même pour une organisation de petite taille, de se retrouver parmi des centaines, voir des milliers de documents électroniques. Souvent, les techniques employées par les moteurs de recherche dans Internet sont utilisées par les entreprises voulant faciliter la recherche d'information dans leur intranet. Ces techniques reposent sur des méthodes statistiques et ne permettent pas de traiter la sémantique contenue dans la requête de l'usager ainsi que dans les documents. Certaines approches ont été développées pour extraire cette sémantique et ainsi, mieux répondre à des requêtes faites par les usagers. Par contre, la plupart de ces techniques ont été conçues pour s'appliquer au Web en entier et non pas sur un domaine en particulier. Il pourrait être intéressant d'utiliser une ontologie pour représenter un domaine spécifique et ainsi, être capable de mieux répondre aux questions posées par un usager. Ce mémoire présente notre approche proposant l'utilisation du logiciel Text- To-Onto pour créer automatiquement une ontologie décrivant un domaine. Cette même ontologie est par la suite utilisée par le logiciel Sesei, qui est un filtre sémantique pour les moteurs de recherche conventionnels. Cette méthode permet ainsi d'améliorer la pertinence des documents envoyés à l'usager.
It can prove to be diffcult, even for a small size organization, to find information among hundreds, even thousands of electronic documents. Most often, the methods employed by search engines on the Internet are used by companies wanting to improve information retrieval on their intranet. These techniques rest on statistical methods and do not make it possible neither to evaluate the semantics contained in the user requests, nor in the documents. Certain methods were developed to extract this semantics and thus, to improve the answer given to requests. On the other hand, the majority of these techniques were conceived to be applied on the entire World Wide Web and not on a particular field of knowledge, like corporative data. It could be interesting to use domain specific ontologies in trying to link a specific query to related documents and thus, to be able to better answer these queries. This thesis presents our approach which proposes the use of the Text-To-Onto software to automatically create an ontology describing a particular field. Thereafter, this ontology is used by the Sesei software, which is a semantic filter for conventional search engines. This method makes it possible to improve the relevance of documents returned to the user.
APA, Harvard, Vancouver, ISO, and other styles
7

Méger, Nicolas. "Recherche automatique des fenêtres temporelles optimales des motifs séquentiels." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0095/these.pdf.

Full text
Abstract:
Ce mémoire concerne l'extraction sous contraintes de motifs dans une séquence d'événements. Les motifs extraits sont des règles d'épisodes. L'apport principal réside dans la détermination automatique de la fenêtre temporelle optimale de chaque règle d'épisodes. Nous proposons de n'extraire que les règles pour lesquelles il existe une telle fenêtre. Ces règles sont appelées FLM-règles. Nous présentons un algorithme, WinMiner, pour extraire les FLM-règles, sous les contraintes de support minimum, de confiance minimum, et de gap maximum. Les preuves de la correction de cet algorithme sont fournies. Nous proposons également une mesure d'intérêt dédiée qui permet de sélectionner les FLM-règles pour lesquelles il existe une forte dépendance entre corps et tête de règle. Deux applications de cet algorithme sont décrites. L'une concerne des données médicales tandis que l'autre a été réalisée sur des données sismiques
This work addresses the problem of mining patterns under constraints in event sequences. Extracted patterns are episode rules. Our main contribution is an automatic search for optimal time window of each one of the episode rules. We propose to extract only rules having such an optimal time window. These rules are termed FLM-rules. We present an algorithm, WinMiner, that aims to extract FLM-rules, given a minimum support threshold, a minimum confidence threshold and a maximum gap constraint. Proofs of the correctness of this algorithm are supplied. We also propose a dedicated interest measure that aims to select FLM-rules such that their heads and bodies can be considered as dependant. Two applications are described. The first one is about mining medical datasets while the other one deals with seismic datasets
APA, Harvard, Vancouver, ISO, and other styles
8

Méger, Nicolas Boulicaut Jean-François Rigotti Christophe. "Recherche automatique des fenêtres temporelles optimales des motifs séquentiels." Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=meger.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Grivolla, Jens. "Apprentissage et décision automatique en recherche documentaire : prédiction de difficulté de requêtes et sélection de modèle de recherche." Avignon, 2006. http://www.theses.fr/2006AVIG0142.

Full text
Abstract:
Cette thèse se situe dans la problématique de la recherche documentaire. Dans ce domaine, chaque besoin en information est exprimé par un utilisateur sous la forme d'une requête en langage naturel. Il existe différentes approches pour traiter ces requêtes, mais les systèmes actuels utilisent généralement une méthode unique, indépendante des caractéristiques de la requête. On peut pourtant montrer de façon expérimentale que la performance relative d'une technique de recherche sur une autre peut varier considérablement suivant la requête traitée. Nous avons abordé cette thématique en proposant des méthodes qui permettent de repérer automatiquement les requêtes qui posent des difficultés particulières au système utilisé, afin de permettre un traitement spécifique et adapté. Nous avons ainsi dégagé un certain nombre de fonctions de prédiction de qualité qui obtiennent des résultats comparables à ceux publiés récemment par d'autres équipes de recherche. La particularité et originalité de ce travail a consisté à étudier la combinaison de ces différentes mesures. En utilisant des méthodes de classification automatique, nous avons obtenu des prédictions relativement fiables sur la base de mesures qui individuellement ont un pouvoir de discrimination considérablement plus faible. Au-delà de la prédiction de difficulté des requêtes, nous avons utilisé nos méthodes pour adapter le processus de recherche à la requête posée
This thesis is centered around the subject of information retrieval, with a focus on those queries that are particularly difficult to handle for current retrieval systems. In the application and evaluation settings we were concerned with, a user expresses his information need as a natural language query. There are different approaches for treating those queries, but current systems typically use a single approach for all queries, without taking into account the specific properties of each query. However, it has been shown that the performance of one strategy relative to another can vary greatly depending on the query. We have approached this problem by proposing methods that will permit to automatically identify those queries that will pose particular difficulties to the retrieval system, in order to allow for a specific treatment. This research topic was very new and barely starting to be explored at the beginning of my work, but has received much attention these last years. We have developed a certain number of quality predictor functions that obtain results comparable to those published recently by other research teams. However, the ability of individual predictors to accurately classify queries by their level of difficulty remains rather limited. The major particularity and originality of our work lies in the combination of those different measures. Using methods of automatic classification with corpus-based training, we have been able to obtain quite reliable predictions, on the basis of measures that individually are far less discriminant. We have also adapted our approach to other application settings, with very encouraging results. We have thus developed a method for the selective application of query expansion techniques, as well as the selection of the most appropriate retrieval model for each query
APA, Harvard, Vancouver, ISO, and other styles
10

Koutchoukali, Mohamed Mehdi. "Configuration automatique du moteur de recherche d'images via la sélection des paramètres de la recherche." Thèse, Université du Québec à Trois-Rivières, 2014. http://depot-e.uqtr.ca/7343/1/030673542.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Recherche automatique"

1

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'Enssib, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'ENSSIB, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Brigitte, Grau, and Chevallet Jean-Pierre, eds. La recherche d'informations précises: Traitement automatique de la langue, apprentissage et connaissances pour les systèmes de question-réponse. Paris: Hermès science publications, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Beltran, Alain. Histoire d'un pionnier de l'informatique: 40 ans de recherche à l'Inria. Les Ulis, France: EDP sciences, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Eggert, Elmar. Bisontins ou Besançonnais?: À la recherche des règles pour la formation des gentilés pour une application au traitement automatique. Tübingen: Narr, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Pasleau, Suzy. Comprendre et utiliser les systènmes experts dans la recherche en sciences humaines: Le couplage automatique des données en histoire. Liège: C.I.P.L., 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sabourin, Conrad. Computational linguistics in information science: Bibliography. Montréal, Qué: Infolingua, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sabourin, Conrad. Computational linguistics in information science: Information retrieval (full-text or conceptual), automatic indexing, text abstraction, content analysis, information extraction, query languages : bibliography. Montréal: Infolingua, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sabourin, Conrad. Computational linguistics in information science: Bibliography. Montréal: Infolingua, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

1956-, Grefenstette Gregory, ed. Cross-language information retrieval. Boston, MA: Kluwer Academic Publishers, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Recherche automatique"

1

Loffler-Laurian, Anne-Marie. "Chapitre II. La traduction automatique et l’enseignement-recherche." In La traduction automatique, 127–31. Presses universitaires du Septentrion, 1996. http://dx.doi.org/10.4000/books.septentrion.74909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Cárdenas, Janina Di Pierro, and Renata De Rugeriis Juárez. "Inteligencia artificial y SoftPower de la traducción asistida y automática: perspectivas en el proceso de enseñanza-aprendizaje de idiomas." In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ?, 83–99. Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0083.

Full text
Abstract:
Intelligence artificielle et softpower de la traduction assistée par ordinateur et de la traduction automatique : perspectives sur le processus d’enseignement et d’apprentissage des langues. En raison de la croissance de l’utilisation des traducteurs automatiques, il est important de se poser la question á propos de quand ou bien si l’intelligence artificielle a pénétré ce domaine de l’enseignement-apprentissage des langues. Malgré les nombreux traducteurs automatiques et d’outils de traduction assistée existants, il est évident que la main de l’homme est unique. Néanmoins, si le travail d’un traducteur pourrait bénéficier d’un gain de temps de temps, en même temps que d’une amélioration concernant le choix lexical, il vaut la peine d’étudier ce domaine dans l’intérêt de la traduction. Dans cette étude, on se propose d’analyser l’intelligence artificielle dans le champ de la traduction et enseignement des langues étrangères, en s’appuyant sur les outils de la traduction automatique déjà existants. À partir d’une analyse minutieuse de la littérature et recherches disponibles, on examinera la traduction automatique neuronale (NMT), le ICALL, dérivant du CALL, pour terminer par les outils de la traduction automatique tels que Google Translator, Translation Online et d’autres, qui s’améliorent avec le temps, malgré le fait que le traducteur humain doive réviser dans la phase de post-édition. Pour ce faire, nous avons analysé un corpus basé sur les commentaires des traducteurs dans des groupes privés de Facebook et LinkedIn á propos de la révision. Dans le même temps, nous avons constaté que l’intelligence artificielle remplacera les professeurs, mais redéfinira leur rôle en tant que professeurs, les convertissant « des guides latéraux » (Morrison, 2014), puisque avec l’apprentissage des langues utilisant les outils de l’intelligence artificielle dans le domaine de la correction, de la notation et des papiers administratifs, les professeurs pourraient avoir plus de temps pour coordonner le processus de d’apprentissage et orienter leurs étudiants. Cette recherche se compose de trois parties : révision bibliographique et de ces études antérieures et analyse des outils de traduction automatique, étude d’un corpus des commentaires de traducteurs et enfin, implication/intégration de l’intelligence artificielle dans les domaines de la traduction et de l’apprentissage des langues.
APA, Harvard, Vancouver, ISO, and other styles
3

JADELOT, Christiane, and Dominique BOUSSEL. "Le projet EUROTRA, projet européen de recherche sur la traduction automatique." In L'environnement traductionnel, 79–94. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18pgwsm.13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Coulardeau, Jacques. "Humaniser la machine à traduire ?" In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ?, 45–59. Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0045.

Full text
Abstract:
Ce travail est fondé sur une recherche longue résumée dans un livre récemment publié. Le concept central de cette discussion de l’Intelligence Artificielle appliquée à la traduction automatique est que cette technique ne peut pas actuellement, et probablement pour longtemps encore, saisir le contexte extérieur au texte et le cotexte intérieur au texte, seuls garants d’une approche juste du sens originel, sans présumer des connections paradigmatiques et syntagmatiques, nécessairement pour la plupart absentes du texte, propres à l’auteur. La traduction automatique porte alors en elle un potentiel d’erreurs qui deviennent la source d’une responsabilité civile voire plus dans le cas d’une interprétation erronée au niveau de la traduction ou au niveau de la lecture de cette traduction. Dans le cadre industriel et commercial la question fondamentale est celle de qui (pluriel) portent cette responsabilité civile, voire plus en case de mort d’hommes. Dans le champ culturel, la traduction automatique peut déformer, voire trahir, le sens originel et donc la culture portée par le texte originel. Déformer/trahir une culture peut être extrêmement dommageable pour de nombreuses personnes. D’où neuf recommandations en conclusion.
APA, Harvard, Vancouver, ISO, and other styles
5

Larsonneur, Claire. "Alexa, Siri : la diversité linguistique au prisme des agents conversationnels." In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ?, 179–97. Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0179.

Full text
Abstract:
Les assistants intelligents, comme Alexa ou Siri, accompagnent la numérisation de nombre d’interactions humaines, qu’il s’agisse de comportements d’achat, de recherche d’information ou de mise en relation entre personnes. Conçus au départ dans un environnement anglophone par Amazon, Apple ou Microsoft, ces outils servent les stratégies de gains de parts de marchés pour ces entreprises qui s’en servent comme portail d’accès à leurs services. Les assistants traduisent de la voix en texte et vice-versa et doivent pouvoir s’adapter aux contraintes locales en termes d’accents, de politique de genre ou de codes culturels par exemple, ce qui serait impossible à grande échelle sans l’utilisation des techniques de traduction neuronale. Dans cette communication, on reviendra sur les politiques linguistiques qui ont accompagné le développement d’Alexa et de Siri, en en retraçant l’historique. Puis on reviendra sur les enjeux linguistiques qu’ils posent, notamment dans le traitement des erreurs et omissions, et leur articulation à un écosystème d’outils automatisés de maniement du langage, lesquels risquent à terme de produire une standardisation des usages de la langue, au sein de chaque langue et par calque vis-à-vis de l’anglais américain. Enfin on explorera la question des enjeux sociétaux, économiques et éthiques associés à l’usage généralisé de tels outils, conçus et mis en œuvre par des acteurs économiques en situation hyperdominante. Se posent notamment des questions de sécurité, de gestion des données, de censure…
APA, Harvard, Vancouver, ISO, and other styles
6

Ballier, Nicolas, and Maria Zimina-Poirot. "Littératie de la traduction automatique (TA) neuronale et traduction spécialisée : s’approprier les outils de la TA au travers de projets de recherche interdisciplinaires." In Human Translation and Natural Language Processing Towards a New Consensus? Venice: Fondazione Università Ca’ Foscari, 2023. http://dx.doi.org/10.30687/978-88-6969-762-3/011.

Full text
Abstract:
We present a set of approaches to facilitate the integration of Neural Machine Translation (NMT) in teaching and research favouring an interdisciplinary perspective. The study suggests that a nuanced comparison of NMT generated translations requires translation experts to move from passive consumption to active participation in the construction of controlled models. This transition requires an understanding of the fundamentals of NMT, which calls for changes in pedagogical models to promote digital literacy while maintaining the standards of professional translation education in line with translation competence frameworks.
APA, Harvard, Vancouver, ISO, and other styles
7

Lechevrel, Nadège. "Chapitre 5. Fouille de données textuelles et recherche documentaire automatiques pour l’histoire des théories linguistiques." In Apparenter la pensée ?, 219. Editions Matériologiques, 2014. http://dx.doi.org/10.3917/edmat.charb.2014.01.0219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

BERTUCCI, Marie-Madeleine, and Mounia ILLOURMANNE. "Transcrire un corpus audio dans la perspective de la préservation du patrimoine culturel immatériel." In Corpus audiovisuels, 115–24. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5704.

Full text
Abstract:
Résumés Marie-Madeleine Bertucci L’article a pour objet « l’étude de la mise en mots de la mémoire des « Chibanis » du quartier de la Goutte d’or à Paris » à partir d’un corpus d’entretiens biographiques audio. Ces entretiens ont été réalisés par Jean-Marc Bombeau, dans les locaux de la galerie associative l’Échomusée, située rue Cavé dans le XVIIIe arrondissement de Paris, avec un groupe de Chibanis ou anciens du quartier de 2010 à 2012. Cette étude discursive mémorielle est le sujet de la thèse de Mounia Illourmane. Ces entretiens font émerger la mémoire de ces acteurs sociaux en les conduisant à jeter un regard rétrospectif et réflexif sur leur passé, de leur arrivée à Paris dans les années soixante, dans le cadre d’une immigration de travail jusqu’à leur retraite qui prend effet dans la période contemporaine. Ils autorisent l’émergence d’un processus de patrimonialisation de données mémorielles qui constituent le socle d’un patrimoine immatériel. Les entretiens ont visé à la fois le passé et le présent et ont cherché à mettre en lumière, à travers le travail sur la mémoire, le retour rétrospectif sur le passé, l’historicité du présent et les types de liens sociaux tissés à travers l’expérience de l’exil. Au plan théorique, la réflexion s’inscrit dans la perspective des cultural et des subaltern studies pour mettre en évidence le caractère fragmentaire et discontinu de ces récits mémoriels par le biais d’une étude du lexique privilégié par les énonciateurs. Le patrimoine culturel immatériel, porté par la convention de l’UNESCO du 17 octobre 2003, et sa conservation supposent deux types de questionnements. D’une part, il s’agit de concevoir différemment les politiques patrimoniales, en les envisageant du point de vue des détenteurs du patrimoine et non plus seulement du point de vue des experts, d’autre part d’élaborer des modalités de préservation des données autres que celles du patrimoine matériel, ce sur quoi va porter l’article. Mounia Illourmane Ce sujet m’a été proposé par ma directrice de thèse Marie-Madeleine Bertucci. Jean-Marc Bombeau a mis à notre disposition un ensemble de données brutes (séquences vidéo, bandes son et photos), sauvegardées sur un disque dur. Avec ma directrice de recherche, nous avons conçu un outil de classement, d’indexation et d’arborescence des données pour déterminer la nature et la quantité des matériaux à exploiter. À partir d’une démarche muséale et ethnographique, il s'agit de transcrire un corpus audio dans une perspective de conservation d'archives et de valorisation de données peu accessibles matériellement et s’inscrivant dans le cadre du patrimoine culturel immatériel. Néanmoins au cours de cette tâche, sont apparues certaines difficultés d'ordre technique, étant donné que le corpus n'est pas destiné à cet effet, la prise de son est artisanale ce qui a rendu la transcription plus complexe. Face à des locuteurs non natifs avec un accent prononcé, les logiciels de reconnaissance vocale et de transcription automatique sont inadaptés. Par conséquent, le choix des outils s'est porté sur deux logiciels informatiques, « Express Scribe » et « E-Speaking ». Le premier est un logiciel professionnel de lecture audio conçu pour faciliter la transcription des enregistrements audio. Grâce à cet outil on peut contrôler la vitesse de lecture audio ainsi avoir une lecture à vitesse variable. « E-Speaking » est un logiciel de contrôle et de reconnaissance vocale qui a pour fonction la dictée et l'exécution des tâches sur ordinateur avec la voix de l'utilisateur. On l’a utilisé notamment pour accélérer le travail de transcription des bandes son. L'emploi de ces deux outils a permis la transcription en restant le plus fidèlement possible à l'original tout en tenant compte des nombreuses contraintes d'ordre syntaxique, orthographique et phonologique résultant du caractère oral des données.
APA, Harvard, Vancouver, ISO, and other styles
9

Velasco, Juan R., José C. Gonzalez, Carlos A. Iglesias, and Luis Magdalena. "MULTIAGENT-BASED CONTROL SYSTEMS: AN HYBRID APPROACH TO DISTRIBUTED PROCESS CONTROL††This research is funded in part by the Commission of the European Communities under the ESPRIT Basic Research Project MIX: Modular Integration of Connectionist and Symbolic Processing in Knowledge Based Systems, ESPRIT-9119, and by CDTI, Spanish Agency for Research and Development CORAGE: Control mediante Razonamiento Aproximado y Algoritmos Genéticos, PASO-PC095.The MIX consortium is formed by the following institutions and companies: Institute National de Recherche en Informatique et en Automatique (INRIA-Lorraine/CRIN-CNRS, France), Centre Universitaire d'lnformatique (Université de Genéve, Switzerland), Institute d'lnformatique et de Mathématiques Appliquées de Grenoble (France), Kratzer Automatisierung (Germany), Fakultät für Informatik (Technische Universität München, Germany) and Dept. Ingenieria de Sistemas Telemáticos (Universidad Politécnica de Madrid, Spain).The CORAGE Consortium is formed by UITESA, Dept. Ingenieria de Sistemas Telemáticos (Universidad Politécnica de Madrid), IBERDROLA and Grupo APEX." In Distributed Computer Control Systems 1995, 7–12. Elsevier, 1995. http://dx.doi.org/10.1016/b978-0-08-042593-1.50005-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Recherche automatique"

1

Motulsky, Aude, Jean Noel Nikiema, Philippe Després, Alexandre Castonguay, Martin Cousineau, Joé T. Martineau, Cécile Petitgand, and Catherine Régis. Promesses de l’IA en santé - Fiche 2. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, March 2022. http://dx.doi.org/10.61737/votf6751.

Full text
Abstract:
Cette fiche présente les principales promesses (ou les bénéfices potentiels ou cas d’usage potentiels) de l’IA en santé du point de vue du système de santé universel, celui qui vise à améliorer la santé de la population ainsi que l’expérience des patients et des soignants (Aung, Wong, and Ting 2021; Lovis 2019). Ces bénéfices potentiels sont présentés pour les usages les plus prometteurs des systèmes d’intelligence artificielle (SIA), en mettant l’accent sur les développements récents des techniques d’IA (p. ex. apprentissage automatique). Cette fiche ne couvre pas l’ensemble du potentiel des SIA qui pourraient améliorer la santé, notamment pour soutenir la recherche, la découverte, et la santé publique (p. ex. prévention et protection). Il s'agit de la deuxième fiche d'une série de 4 développée dans le cadre d'un mandat réalisé pour le Ministère de la Santé et des Services sociaux du Québec (MSSS).
APA, Harvard, Vancouver, ISO, and other styles
2

Taherizadeh, Amir, and Cathrine Beaudry. Vers une meilleure compréhension de la transformation numérique optimisée par l’IA et de ses implications pour les PME manufacturières au Canada - Une recherche qualitative exploratoire. CIRANO, June 2021. http://dx.doi.org/10.54932/jdxb2231.

Full text
Abstract:
Ce rapport présente les principaux résultats d’une étude qualitative exploratoire visant à examiner l’impact de l’intelligence artificielle (IA), en tant que technologie à usage général (TUG) sur la productivité et l’emploi à l’échelle de l’entreprise. À la suite de l’analyse de sources de données primaires et secondaires (comprenant 27 entretiens, rapports et discussions de groupe), nous établissons d’abord une échelle de maturité de l’adoption de l’IA et un classement des petites et moyennes entreprises (PME) qui intègrent l’IA dans leurs processus de travail en quatre archétypes : l’Aspirant, le Fonceur, le Leader et le Visionnaire. Nous définissons chaque archétype de façon à mettre en évidence les changements particuliers à opérer pour qu’une entreprise puisse passer à l’étape suivante de l’adoption de l’IA. Deuxièmement, nous définissons et examinons sept obstacles à l’adoption généralisée de l’IA par les PME manufacturières. Troisièmement, à l’aide de trois études de cas, nous explorons trois projets d’IA menés par des entreprises québécoises axées sur l’IA afin de montrer, d’une part, l’apport de l’intégration de l’apprentissage automatique (AA) aux produits et aux processus de travail sur le plan de la productivité des entreprises, et d’autre part son effet sur leurs effectifs. Dans l’ensemble, les résultats de notre étude suggèrent que la réussite de l’intégration de l’IA nécessite une transformation numérique au niveau de l’entreprise, que nous présentons comme un continuum. Dans les premières étapes, où l’adoption de l’IA se fait autour de projets (en particulier pour les entreprises des catégories Aspirant et Fonceur), les effectifs des entreprises ont tendance à augmenter parallèlement aux gains de productivité en même temps que le perfectionnement indispensable des compétences de la main-d’œuvre existante. En outre, lorsque l’IA est déployée à l’échelle de l’entreprise (chez les Leaders et les Visionnaires) et que cette dernière rehausse le niveau de ses activités d’innovation, on enregistre plutôt des pertes d’emploi parallèlement aux gains de productivité. Par la suite, nous introduisons des indicateurs indirects de l’omniprésence de l’IA, car nous estimons qu’il s’agit de mesures plus réalistes pour évaluer le taux d’adoption de l’IA par les PME en phase fluide. Enfin, nous proposons quatre recommandations qui ont des implications pour les chercheurs, les praticiens et les responsables politiques.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography