Thèses sur le sujet « Apprentissage à partir de démonstrations »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Apprentissage à partir de démonstrations.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Apprentissage à partir de démonstrations ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chenu, Alexandre. « Leveraging sequentiality in Robot Learning : Application of the Divide & ; Conquer paradigm to Neuro-Evolution and Deep Reinforcement Learning ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS342.

Texte intégral
Résumé :
"Pour réussir, il ne suffit pas de prévoir, il faut aussi savoir improviser." Cette citation d’Isaac Asimov, père fondateur de la robotique et auteur des Trois lois de la robotique, souligne toute l’importance d’être capable de s’adapter et d’agir dans l’instant présent pour réussir. Même si, aujourd’hui, les robots peuvent résoudre des tâches d’une complexité qui était inimaginable il y a encore quelques années, ces capacités d’adaptation leur font encore défaut, ce qui les empêche d’être déployé à une plus grande échelle. Pour remédier à ce manque d’adaptabilité, les roboticiens utilisent des algorithmes d’apprentissage afin de permettre aux robots de résoudre des tâches complexes de manière autonome. Deux types d’algorithmes d’apprentissage sont particulièrement adaptés à l’apprentissage autonome de contrôleurs par les robots : l’apprentissage profond par renforcement et la neuro-évolution. Cependant, ces deux classes d’algorithmes ne sont capables de résoudre des problèmes d’exploration difficiles, c’est-à- dire des problèmes avec un horizon long et un signal de récompense rare, que s’ils sont guidés dans leur processus d’apprentissage. Différentes approches peuvent être envisagées pour permettre à un robot de résoudre un tel problème sans être guidé. Une première approche consiste à rechercher une diversité de comportements plutôt qu’un comportement spécifique. L’idée étant que parmi cette diversité, certains comportements seront probablement capables de résoudre la tâche qui nous intéresse. Nous les appelons les algorithmes de recherche de diversité. Une deuxième approche consiste à guider le processus d’apprentissage en utilisant des démonstrations fournies par un expert. C’est ce qu’on appelle l’apprentissage par démonstration. Cependant, chercher des comportements divers ou apprendre par démonstration peut être inefficace dans certains contextes. En effet, la recherche de comportements divers peut être fastidieuse si l’environnement est complexe. D’autre part, l’apprentissage à partir d’une seule et unique démonstration peut être très difficile. Dans cette thèse, nous tentons d’améliorer l’efficacité des approches de recherche par diversité et d’apprentissage à partir d’une seule démonstration dans des problèmes d’exploration difficiles. Pour ce faire, nous supposons que les comportements robotiques complexes peuvent être décomposés en sous-comportements plus simples. Sur la base de ce biais séquentiel, nous adoptons une stratégie dite de "diviser-pour-régner", qui est bien connue pour être efficace lorsque le problème est composable. Nous proposons deux approches en particulier. Premièrement, après avoir identifié certaines limites des algorithmes de recherche de diversité basés sur la l’évolution de réseaux de neurones artificiels, nous proposons Novelty Search Skill Chaining. Cet algorithme combine la recherche de diversité avec l’enchaînement de compétences pour naviguer efficacement dans des labyrinthes qui sont difficiles à explorer pour des algorithmes de l’état-de-l’art. Dans une deuxième série de contributions, nous proposons les algorithmes Divide & Conquer Imitation Learning. L’intuition derrière ces méthodes est de décomposer la tâche complexe d’apprentissage à partir d’une seule démonstration en plusieurs sous-tâches plus simples consistant à atteindre des sous-buts successifs. DCIL-II, la variante la plus avancée, est capable d’apprendre des comportements de marche pour des robots humanoïdes sous-actionnés avec une efficacité sans précédent. Au-delà de souligner l’efficacité du paradigme de diviser-pour-régner dans l’apprentissage des robots, cette thèse met également en évidence les difficultés qui peuvent survenir lorsqu’on compose de comportements, même dans des environnements élémentaires. Il faudra inévitablement résoudre ces difficultés avant d’appliquer ces algorithmes directement à des robots réels. C’est peut-être une condition nécessaire pour le succès des prochaines générations [...]
“To succeed, planning alone is insufficient. One must improvise as well.” This quote from Isaac Asimov, founding father of robotics and author of the Three Laws of Robotics, emphasizes the importance of being able to adapt and think on one’s feet to achieve success. Although robots can nowadays resolve highly complex tasks, they still need to gain those crucial adaptability skills to be deployed on a larger scale. Robot Learning uses learning algorithms to tackle this lack of adaptability and to enable robots to solve complex tasks autonomously. Two types of learning algorithms are particularly suitable for robots to learn controllers autonomously: Deep Reinforcement Learning and Neuro-Evolution. However, both classes of algorithms often cannot solve Hard Exploration Problems, that is problems with a long horizon and a sparse reward signal, unless they are guided in their learning process. One can consider different approaches to tackle those problems. An option is to search for a diversity of behaviors rather than a specific one. The idea is that among this diversity, some behaviors will be able to solve the task. We call these algorithms Diversity Search algorithms. A second option consists in guiding the learning process using demonstrations provided by an expert. This is called Learning from Demonstration. However, searching for diverse behaviors or learning from demonstration can be inefficient in some contexts. Indeed, finding diverse behaviors can be tedious if the environment is complex. On the other hand, learning from demonstration can be very difficult if only one demonstration is available. This thesis attempts to improve the effectiveness of Diversity Search and Learning from Demonstration when applied to Hard Exploration Problems. To do so, we assume that complex robotics behaviors can be decomposed into reaching simpler sub-goals. Based on this sequential bias, we try to improve the sample efficiency of Diversity Search and Learning from Demonstration algorithms by adopting Divide & Conquer strategies, which are well-known for their efficiency when the problem is composable. Throughout the thesis, we propose two main strategies. First, after identifying some limitations of Diversity Search algorithms based on Neuro-Evolution, we propose Novelty Search Skill Chaining. This algorithm combines Diversity Search with Skill- Chaining to efficiently navigate maze environments that are difficult to explore for state-of-the-art Diversity Search. In a second set of contributions, we propose the Divide & Conquer Imitation Learning algorithms. The key intuition behind those methods is to decompose the complex task of learning from a single demonstration into several simpler goal-reaching sub-tasks. DCIL-II, the most advanced variant, can learn walking behaviors for under-actuated humanoid robots with unprecedented efficiency. Beyond underlining the effectiveness of the Divide & Conquer paradigm in Robot Learning, this work also highlights the difficulties that can arise when composing behaviors, even in elementary environments. One will inevitably have to address these difficulties before applying these algorithms directly to real robots. It may be necessary for the success of the next generations of robots, as outlined by Asimov
Styles APA, Harvard, Vancouver, ISO, etc.
2

Tokmakov, Pavel. « Apprentissage à partir du mouvement ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM031/document.

Texte intégral
Résumé :
L’apprentissage faiblement supervisé cherche à réduire au minimum l’effort humain requis pour entrainer les modèles de l’état de l’art. Cette technique permet de tirer parti d’une énorme quantité de données. Toutefois, dans la pratique, les méthodes faiblement supervisées sont nettement moins efficaces que celles qui sont totalement supervisées. Plus particulièrement, dans l’apprentissage profond, où les approches de vision par ordinateur sont les plus performantes, elles restent entièrement supervisées, ce qui limite leurs utilisations dans les applications du monde réel. Cette thèse tente tout d’abord de combler le fossé entre les méthodes faiblement supervisées et entièrement supervisées en utilisant l’information de mouvement. Puis étudie le problème de la segmentation des objets en mouvement, en proposant l’une des premières méthodes basées sur l’apprentissage pour cette tâche.Dans une première partie de la thèse, nous nous concentrons sur le problème de la segmentation sémantique faiblement supervisée. Le défi est de capturer de manières précises les bordures des objets et d’éviter les optimums locaux (ex : segmenter les parties les plus discriminantes). Contrairement à la plupart des approches de l’état de l’art, qui reposent sur des images statiques, nous utilisons les données vidéo avec le mouvement de l’objet comme informations importantes. Notre méthode utilise une approche de segmentation vidéo de l’état de l’art pour segmenter les objets en mouvement dans les vidéos. Les masques d’objets approximatifs produits par cette méthode sont ensuite fusionnés avec le modèle de segmentation sémantique appris dans un EM-like framework, afin d’inférer pour les trames vidéo, des labels sémantiques au niveau des pixels. Ainsi, au fur et à mesure que l’apprentissage progresse, la qualité des labels s’améliore automatiquement. Nous intégrons ensuite cette architecture à notre approche basée sur l’apprentissage pour la segmentation de la vidéo afin d’obtenir un framework d’apprentissage complet pour l’apprentissage faiblement supervisé à partir de vidéos.Dans la deuxième partie de la thèse, nous étudions la segmentation vidéo non supervisée, plus précisément comment segmenter tous les objets dans une vidéo qui se déplace indépendamment de la caméra. De nombreux défis tels qu’un grand mouvement de la caméra, des inexactitudes dans l’estimation du flux optique et la discontinuité du mouvement, complexifient la tâche de segmentation. Nous abordons le problème du mouvement de caméra en proposant une méthode basée sur l’apprentissage pour la segmentation du mouvement : un réseau de neurones convolutif qui prend le flux optique comme entrée et qui est entraîné pour segmenter les objets qui se déplacent indépendamment de la caméra. Il est ensuite étendu avec un flux d’apparence et un module de mémoire visuelle pour améliorer la continuité temporelle. Le flux d’apparence tire profit de l’information sémantique qui est complémentaire de l’information de mouvement. Le module de mémoire visuelle est un paramètre clé de notre approche : il combine les sorties des flux de mouvement et d’apparence et agréger une représentation spatio-temporelle des objets en mouvement. La segmentation finale est ensuite produite à partir de cette représentation agrégée. L’approche résultante obtient des performances de l’état de l’art sur plusieurs jeux de données de référence, surpassant la méthode d’apprentissage en profondeur et heuristique simultanée
Weakly-supervised learning studies the problem of minimizing the amount of human effort required for training state-of-the-art models. This allows to leverage a large amount of data. However, in practice weakly-supervised methods perform significantly worse than their fully-supervised counterparts. This is also the case in deep learning, where the top-performing computer vision approaches remain fully-supervised, which limits their usage in real world applications. This thesis attempts to bridge the gap between weakly-supervised and fully-supervised methods by utilizing motion information. It also studies the problem of moving object segmentation itself, proposing one of the first learning-based methods for this task.We focus on the problem of weakly-supervised semantic segmentation. This is especially challenging due to the need to precisely capture object boundaries and avoid local optima, as for example segmenting the most discriminative parts. In contrast to most of the state-of-the-art approaches, which rely on static images, we leverage video data with object motion as a strong cue. In particular, our method uses a state-of-the-art video segmentation approach to segment moving objects in videos. The approximate object masks produced by this method are then fused with the semantic segmentation model learned in an EM-like framework to infer pixel-level semantic labels for video frames. Thus, as learning progresses, the quality of the labels improves automatically. We then integrate this architecture with our learning-based approach for video segmentation to obtain a fully trainable framework for weakly-supervised learning from videos.In the second part of the thesis we study unsupervised video segmentation, the task of segmenting all the objects in a video that move independently from the camera. This task presents challenges such as strong camera motion, inaccuracies in optical flow estimation and motion discontinuity. We address the camera motion problem by proposing a learning-based method for motion segmentation: a convolutional neural network that takes optical flow as input and is trained to segment objects that move independently from the camera. It is then extended with an appearance stream and a visual memory module to improve temporal continuity. The appearance stream capitalizes on the semantic information which is complementary to the motion information. The visual memory module is the key component of our approach: it combines the outputs of the motion and appearance streams and aggregates a spatio-temporal representation of the moving objects. The final segmentation is then produced based on this aggregated representation. The resulting approach obtains state-of-the-art performance on several benchmark datasets, outperforming the concurrent deep learning and heuristic-based methods
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bollinger, Toni. « Généralisation en apprentissage à partir d'exemples ». Paris 11, 1986. http://www.theses.fr/1986PA112064.

Texte intégral
Résumé :
Cette thèse traite essentiellement du problème de la généralisation, en tant l'accent sur deux de ces aspects. Dans la première partie nous précisons ce que nous entendons par un exemple accepté par une description, ce qui nous conduit à donner une définition formelle de "plus général". Nous présentons aussi une méthode destinée à déterminer si une description est plus générale qu'une autre. La deuxième partie est consacrée à la présentation d'un algorithme de généralisation fondé sur l'appariement structurel. Nous décrivons d'abord la méthode de l'appariement structurel qui sert à transformer les descriptions des exemples jusqu'à ce qu'elles se ressemblent le plus possible. Cette opération a pour but de préserver un maximum d'information pendant la généralisation. Ensuite, nous présentons AGAPE, un algorithme de généralisation à partir d'exemples, ainsi que son implémentation. La tâche principale de cet algorithme est de mettre les exemples en appariement structurel ce qui rend triviale l'opération de la généralisation elle-même. A la fin de cette thèse, nous propo sons quelques extensions de cet algorithme. Surtout afin qu'il puisse également traiter des contre-exemples
This thesis treats two aspects of the problem of generalization in machine learning. First, we give a formal definition of the relation "more general" which we deduce from our notion of an example that is accepted by a description. We present also a methodology for determining if one description is more general than another. In the second part, we describe the generalization algorithm AGAPE based on structural matching. This algorithm tries to preserve a maximum of information common to the examples by transforming the descriptions of the examples until they match structurally, i. E. Until the descriptions are almost identical. At the end of this thesis, we present some extensions of this algorithm especially designed for enabling the treatement of counter-examples
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bollinger, Toni. « Généralisation en apprentissage a partir d'exemples ». Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37596263z.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Barlier, Merwan. « Sur le rôle de l’être humain dans le dialogue humain/machine ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I087/document.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre de l'apprentissage par renforcement pour les systèmes de dialogue. Ce document propose différentes manières de considérer l'être humain, interlocuteur du système de dialogue. Après un aperçu des limites du cadre agent/environnement traditionnel, nous proposons de modéliser dans un premier temps le dialogue comme un jeu stochastique. Dans ce cadre, l'être humain n'est plus vu comme une distribution de probabilité stationnaire mais comme un agent cherchant à optimiser ses préférences. Nous montrons que ce cadre permet une prise en compte de phénomènes de co-adaptation intrinsèques au dialogue humain/machine et nous montrons que ce cadre étend le champ d'application des systèmes de dialogue, par exemple aux dialogues de négociations. Dans un second temps, nous présentons une méthode permettant à l'être humain d'accélérer et de sécuriser la phase d'apprentissage de son système de dialogue par le biais de conseils encodés sous la forme d'une fonction de récompense. Nous montrons que cette prise en compte de conseils permet de significativement améliorer les performances d'un agent apprenant par renforcement. Finalement, une troisième situation est considérée. Ici, un système écoute une conversation entre humains et agit de manière à influer sur le cours de la conversation. Une fonction de récompense originale permettant de maximiser le résultat de la conversation tout en minimisant l'intrusivité du système est proposé. Nous montrons que notre approche permet de significativement améliorer les conversations. Pour implémenter cette approche, un modèle de la conversation est requis. C'est pourquoi nous proposons dans une quatrième contribution d'apprendre ce modèle à partir d'un algorithme d'apprentissage d'automates à multiplicité
The context of this thesis takes place in Reinforcement Learning for Spoken Dialogue Systems. This document proposes several ways to consider the role of the human interlocutor. After an overview of the limits of the traditional Agent/Environment framework, we first suggest to model human/machine dialogue as a Stochastic Game. Within this framework, the human being is seen as a rational agent, acting in order to optimize his preferences. We show that this framework allows to take into consideration co-adaptation phenomena and extend the applications of human/machine dialogue, e.g. negociation dialogues. In a second time, we address the issue of allowing the incorporation of human expertise in order to speed-up the learning phase of a reinforcement learning based spoken dialogue system. We provide an algorithm that takes advantage of those human advice and shows a great improvement over the performance of traditional reinforcement learning algorithms. Finally, we consider a third situation in which a system listens to a conversation between two human beings and talk when it estimates that its intervention could help to maximize the preferences of its user. We introduce a original reward function balancing the outcome of the conversation with the intrusiveness of the system. Our results obtained by simulation suggest that such an approach is suitable for computer-aided human-human dialogue. However, in order to implement this method, a model of the human/human conversation is required. We propose in a final contribution to learn this model with an algorithm based on multiplicity automata
Styles APA, Harvard, Vancouver, ISO, etc.
6

Ferrandiz, Sylvain. « Apprentissage supervisé à partir de données séquentielles ». Caen, 2006. http://www.theses.fr/2006CAEN2030.

Texte intégral
Résumé :
En phase de préparation d’un processus de fouille de données, une part importante du travail est consacrée à la construction et à la sélection des variables descriptives. L’approche filtre univariée usuellement adoptée nécessite l’emploi d’une méthode d’évaluation d’une variable. Nous considérons la question de l’évaluation supervisée d’une variable séquentielle. Pour résoudre ce problème, nous montrons qu’il suffit de résoudre un problème plus général : celui de l’évaluation supervisée d’une mesure de similitude. Nous proposons une telle méthode d’évaluation. Pour l’obtenir, nous formulons le problème en un problème de recherche d’une bonne partition de Voronoi. Nous proposons un nouveau critère d’évaluation supervisée de ces partitions et une nouvelle heuristique de recherche optimisée. Le critère prévient automatiquement le risque de sur-apprentissage et l’heuristique trouve rapidement une bonne solution. Au final, la méthode réalise une estimation non paramétrique robuste de la densité d’une variable cible symbolique conditionnellement à une mesure de similitude définie à partir d’une variable. La méthode a été testée sur de nombreux jeux de données. Son utilisation permet de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l’appétence à un nouveau service ?
In the data mining process, the main part of the data preparation step is devoted to feature construction and selection. The filter approach usually adopted requires evaluation methods for any kind of feature. We address the problem of the supervised evaluation of a sequential feature. We show that this problem is solved if a more general problem is tackled : that of the supervised evaluation of a similarity measure. We provide such an evaluation method. We first turn the problem into the search of a discriminating Voronoi partition. Then, we define a new supervised criterion evaluating such partitions and design a new optimised algorithm. The criterion automatically prevents from overfitting the data and the algorithm quickly provides a good solution. In the end, the method can be interpreted as a robust non parametric method for estimating the conditional density of a nominal target feature given a similarity measure defined from a descriptive feature. The method is experimented on many datasets. It is useful for answering questions like : which day of the week or which hourly time segment is the most relevant to discriminate customers from their call detailed records ? Which series allows to better estimate the customer need for a new service ?
Styles APA, Harvard, Vancouver, ISO, etc.
7

Liquière, Michel. « Apprentissage à partir d'objets structurés : conception et réalisation ». Montpellier 2, 1990. http://www.theses.fr/1990MON20038.

Texte intégral
Résumé :
Ce travail porte sur la mise en evidence par apprentissage de regularites dans la description d'objets complexes. Pour la description des exemples, nous utilisons un formalisme objet base sur le modele des graphes conceptuels de sowa. La recherche de regularites valides est ramenee a la recherche de sous-graphes conceptuels, donc connexes, apparaissant souvent dans les graphes decrivant les exemples et rarement dans ceux decrivant les contre-exemples. Nous proposons un algorithme qui procede en deux etapes: 1) recherche de chemins conceptuels; 2) assemblage de ces chemins pour former des arbres conceptuels. Les regularites extraites par cette methode sont ensuite structurees par l'intermediaire d'un treillis de galois, ce qui permet de batir des methodes tres interessantes de decision et d'explication des resultats. Ces algorithmes ont ete exploites dans le domaine de la biologie sur des problemes de grandes tailles
Styles APA, Harvard, Vancouver, ISO, etc.
8

Wolley, Chirine. « Apprentissage supervisé à partir des multiples annotateurs incertains ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4070/document.

Texte intégral
Résumé :
En apprentissage supervisé, obtenir les réels labels pour un ensemble de données peut être très fastidieux et long. Aujourd'hui, les récentes avancées d'Internet ont permis le développement de services d'annotations en ligne, faisant appel au crowdsourcing pour collecter facilement des labels. Néanmoins, le principal inconvénient de ces services réside dans le fait que les annotateurs peuvent avoir des niveaux d'expertise très hétérogènes. De telles données ne sont alors pas forcément fiables. Par conséquent, la gestion de l'incertitude des annotateurs est un élément clé pour l'apprentissage à partir de multiples annotateurs non experts. Dans cette thèse, nous proposons des algorithmes probabilistes qui traitent l'incertitude des annotateurs et la qualité des données durant la phase d'apprentissage. Trois modèles sont proposés: IGNORE permet de classer de nouvelles instances tout en évaluant les annotateurs en terme de performance d'annotation qui dépend de leur incertitude. X-IGNORE intègre la qualité des données en plus de l'incertitude des juges. En effet, X-IGNORE suppose que la performance des annotateurs dépend non seulement de leur incertitude mais aussi de la qualité des données qu'ils annotent. Enfin, ExpertS répond au problème de sélection d'annotateurs durant l'apprentissage. ExpertS élimine les annotateurs les moins performants, et se base ainsi uniquement sur les labels des bons annotateurs (experts) lors de l'étape d'apprentissage. De nombreuses expérimentations effectuées sur des données synthétiques et réelles montrent la performance et la stabilité de nos modèles par rapport à différents algorithmes de la littérature
In supervised learning tasks, obtaining the ground truth label for each instance of the training dataset can be difficult, time-consuming and/or expensive. With the advent of infrastructures such as the Internet, an increasing number of web services propose crowdsourcing as a way to collect a large enough set of labels from internet users. The use of these services provides an exceptional facility to collect labels from anonymous annotators, and thus, it considerably simplifies the process of building labels datasets. Nonetheless, the main drawback of crowdsourcing services is their lack of control over the annotators and their inability to verify and control the accuracy of the labels and the level of expertise for each labeler. Hence, managing the annotators' uncertainty is a clue for learning from imperfect annotations. This thesis provides three algorithms when learning from multiple uncertain annotators. IGNORE generates a classifier that predict the label of a new instance and evaluate the performance of each annotator according to their level of uncertainty. X-Ignore, considers that the performance of the annotators both depends on their uncertainty and on the quality of the initial dataset to be annotated. Finally, ExpertS deals with the problem of annotators' selection when generating the classifier. It identifies experts annotators, and learn the classifier based only on their labels. We conducted in this thesis a large set of experiments in order to evaluate our models, both using experimental and real world medical data. The results prove the performance and accuracy of our models compared to previous state of the art solutions in this context
Styles APA, Harvard, Vancouver, ISO, etc.
9

Arcadias, Marie. « Apprentissage non supervisé de dépendances à partir de textes ». Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2080/document.

Texte intégral
Résumé :
Les grammaires de dépendance permettent de construire une organisation hiérarchique syntaxique des mots d’une phrase. La construction manuelle des arbres de dépendances étant une tâche exigeant temps et expertise, de nombreux travaux cherchent à l’automatiser. Visant à établir un processus léger et facilement adaptable nous nous sommes intéressés à l’apprentissage non supervisé de dépendances, évitant ainsi d’avoir recours à une expertise coûteuse. L’état de l’art en apprentissage non supervisé de dépendances (DMV) se compose de méthodes très complexes et extrêmement sensibles au paramétrage initial. Nous présentons dans cette thèse un nouveau modèle pour résoudre ce problème d’analyse de dépendances, mais de façon plus simple, plus rapide et plus adaptable. Nous apprenons une famille de grammaires (PCFG) réduites à moins de 6 non terminaux et de 15 règles de combinaisons des non terminaux à partir des étiquettes grammaticales. Les PCFG de cette famille que nous nommons DGdg (pour DROITE GAUCHE droite gauche) se paramètrent très légèrement, ainsi elles s’adaptent sans effort aux 12 langues testées. L’apprentissage et l’analyse sont effectués au moins deux fois plus rapidement que DMV sur les mêmes données. Et la qualité des analyses DGdg est pour certaines langues proches des analyses par DMV. Nous proposons une première application de notre méthode d’analyse de dépendances à l’extraction d’informations. Nous apprenons par des CRF un étiquetage en fonctions « sujet », « objet » et « prédicat », en nous fondant sur des caractéristiques extraites des arbres construits
Dependency grammars allow the construction of a hierarchical organization of the words of sentences. The one-by-one building of dependency trees can be very long and it requries expert knowledge. In this regard, we are interested in unsupervised dependency learning. Currently, DMV give the state-of-art results in unsupervised dependency parsing. However, DMV has been known to be highly sensitive to initial parameters. The training of DMV model is also heavy and long. We present in this thesis a new model to solve this problem in a simpler, faster and more adaptable way. We learn a family of PCFG using less than 6 nonterminal symbols and less than 15 combination rules from the part-of-speech tags. The tuning of these PCFG is ligth, and so easily adaptable to the 12 languages we tested. Our proposed method for unsupervised dependency parsing can show the near state-of-the-art results, being twice faster. Moreover, we describe our interests in dependency trees to other applications such as relation extraction. Therefore, we show how such information from dependency structures can be integrated into condition random fields and how to improve a relation extraction task
Styles APA, Harvard, Vancouver, ISO, etc.
10

HANSER, THIERRY. « Apprentissage automatique de methodes de synthese a partir d'exemples ». Université Louis Pasteur (Strasbourg) (1971-2008), 1993. http://www.theses.fr/1993STR13106.

Texte intégral
Résumé :
La construction manuelle de bases de connaissance en synthese assistee par ordinateur (sao) est une tache longue et fastidieuse. Cette these decrit une methode qui permet d'automatiser ce travail. Le projet grams (generation de reseaux pour l'apprentissage de methodes de synthese) represente une nouvelle approche dans la maniere d'acquerir, de representer et d'exploiter la connaissance en synthese assistee par ordinateur. Le but du projet est d'etablir une connaissance generale sur des classes de reactions organiques a partir d'exemples extraits de banques de donnees. La methode proposee repose sur des techniques d'apprentissage automatique par induction
Styles APA, Harvard, Vancouver, ISO, etc.
11

Chevaleyre, Yann. « Apprentissage de règles à partir de données multi-instances ». Paris 6, 2001. http://www.theses.fr/2001PA066502.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Duclaye, Florence. « Apprentissage automatique de relations d'équivalence sémantique à partir du Web ». Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00001119.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte d'un système de Questions-Réponses, capable de trouver automatiquement sur le Web la réponse à des questions factuelles traitant de n'importe quel sujet. L'une des manières d'améliorer la qualité des réponses fournies consiste à augmenter le taux de rappel du système. Pour cela, il est nécessaire de pouvoir identifier les réponses sous de multiples formulations possibles. A titre illustratif, la réponse à la question "Quelle est la hauteur de la Tour Eiffel ?" peut non seulement être exprimée de la même manière que dans la question ("la hauteur de la Tour Eiffel est 300 mètres"), mais également sous d'autres formes lexico-syntaxiques ("la Tour Eiffel culmine à 300 mètres", "la Tour Eiffel fait 300 mètres de haut", etc). On parle alors de paraphrases de la réponse. Le recensement manuel de ces paraphrases étant un travail long et coûteux, l'objectif de cette thèse est de concevoir et développer un mécanisme capable d'apprendre de façon automatique et faiblement supervisée les paraphrases possibles d'une réponse. Inscrite dans le vaste domaine de l'acquisition automatique de connaissances sémantiques, la méthode d'apprentissage présentée fait du Web son corpus privilégié, en particulier par la redondance et la variété linguistique des informations qu'il contient. Considéré comme un gigantesque graphe biparti représenté, d'une part, par des formulations (expressions d'une relation sémantique, comme "culmine à" ou "fait ... de haut") et d'autre part par des couples d'arguments (entités nommées régies par ces formulations, comme "Tour Eiffel - 300 mètres"), le Web s'avère propice à l'application de la citation de Firth, selon laquelle le sens d'un terme (respectivement d'une formulation, dans notre cas) est lié aux termes (respectivement aux arguments) avec lesquels il cooccurre. Ainsi, par un mécanisme itératif, le Web est échantillonné: les formulations (paraphrases potentielles) sont extraites par ancrage des arguments sur le Web et, inversement, de nouveaux arguments sont extraits par ancrages des formulations acquises. Afin de permettre à l'apprentissage de converger, une étape intermédiaire de classification statistique des données échantillonnées est nécessaire. Les résultats obtenus ont fait l'objet d'une évaluation empirique, ce qui permet en particulier de montrer la valeur ajoutée des paraphrases apprises sur le système de Questions-Réponses. De plus, ces résultats mettent en évidence quelques perspectives exploratoires qui permettront d'améliorer le processus d'apprentissage et de l'utiliser dans d'autres contextes applicatifs.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Duclaye, Florence Aude Dorothée. « Apprentissage automatique de relations d'équivalence sémantique à partir du Web ». Paris, ENST, 2003. http://www.theses.fr/2003ENST0044.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte d'un système de questions-réponses, capable de trouver automatiquement sur le Web la réponse à des questions factuelles. L'une des manières d'améliorer la qualité des réponses fournies consiste à augmenter le taux de rappel du système et à identifier pour cela les réponses sous de multiples formulations possibles (paraphrases). Le recensement manuel de ces paraphrases étant un travail long et coûteux, l'objectif de cette thèse est de concevoir et développer un mécanisme d'apprentissage automatique et faiblement supervisé des paraphrases possibles d'une réponse. La méthode d'apprentisage présentée fait du Web son corpus privilégié, en particulier par la redondance et la variété linguistique des informations qu'il contient. Considéré comme un gigantesque graphe biparti représenté, d'une part, par des formulations et, d'autre part, par des couples d'arguments, le Web s'avère propice à l'application de la citation de Firth, selon laquelle le sens d'un terme (respectivement d'une formulation, dans notre cas) est lié aux termes (respectivement aux arguments) avec lesquels il cooccurre. Ainsi, par un mécanisme itératif, le Web est échantillonné : les formulations (paraphrases potentielles) sont extraites par ancrage des arguments, et inversement, de nouveaux arguments sont extraits par ancrage des formulations acquises. Afin de permettre à l'apprentissage de converger, une étape intermédiaire de classification statistique des données échantillonnées est nécessaire. Les résultats obtenus ont fait l'objet d'une évaluation empirique, montrant en particulier la valeur ajoutée des paraphrases apprises sur le système de questions-réponses
This PhD thesis can be situated in the context of a question answering system, which is capable of automatically finding answers to factual questions on the Web. One way to improve the quality of these answers is to increase the recall rate of the system, by identifying the answers under multiple possible formulations(paraphrases). As the manual recording of paraphrases is a long and expensive task, the goal of this PhD thesis is to design and develop a mechanism that learns automatically and in a weakly supervised manner the possible paraphrases of an answer. Thanks to the redundance and the linguistic variety of the information it contains, the Web is considered to be a very interesting corpus. Assimilated to a gigantic bipartite graph represented, on the one hand, by formulations and, on the other hand, by argument couples, the Web turns out to be propitious to the application of Firth's hypothesis, according to which "you shall know a word (resp. A formulation, in our case) by the company (resp. Arguments) it keeps". Consequently, the Web is sampled using an iterative mechanism : formulations (potential paraphrases) are extracted by anchoring arguments and, inversely, new arguments are extracted by anchoring the acquired formulations. In order to make the learning process converge, an intermediary stage is necessary, which partitions the sampled data using a statistical classification method. The obtained results were empirically evaluated, which, more particularly, shows the value added by the learnt paraphrases of the question answering system
Styles APA, Harvard, Vancouver, ISO, etc.
14

Duclaye, Florence. « Apprentissage automatique de relations d'équivalence sémantique à partir du Web / ». Paris : École nationale supérieure des télécommunications, 2005. http://catalogue.bnf.fr/ark:/12148/cb39935321s.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Moukari, Michel. « Estimation de profondeur à partir d'images monoculaires par apprentissage profond ». Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC211/document.

Texte intégral
Résumé :
La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine d'analyser, de traiter et de comprendre le contenu d'images numériques. La compréhension de scène en particulier est un enjeu majeur en vision par ordinateur. Elle passe par une caractérisation à la fois sémantique et structurelle de l'image, permettant d'une part d'en décrire le contenu et, d'autre part, d'en comprendre la géométrie. Cependant tandis que l'espace réel est de nature tridimensionnelle, l'image qui le représente, elle, est bidimensionnelle. Une partie de l'information 3D est donc perdue lors du processus de formation de l'image et il est d'autant plus complexe de décrire la géométrie d'une scène à partir d'images 2D de celle-ci.Il existe plusieurs manières de retrouver l'information de profondeur perdue lors de la formation de l'image. Dans cette thèse nous nous intéressons à l’estimation d'une carte de profondeur étant donné une seule image de la scène. Dans ce cas, l'information de profondeur correspond, pour chaque pixel, à la distance entre la caméra et l'objet représenté en ce pixel. L'estimation automatique d'une carte de distances de la scène à partir d'une image est en effet une brique algorithmique critique dans de très nombreux domaines, en particulier celui des véhicules autonomes (détection d’obstacles, aide à la navigation).Bien que le problème de l'estimation de profondeur à partir d'une seule image soit un problème difficile et intrinsèquement mal posé, nous savons que l'Homme peut apprécier les distances avec un seul œil. Cette capacité n'est pas innée mais acquise et elle est possible en grande partie grâce à l'identification d'indices reflétant la connaissance a priori des objets qui nous entourent. Par ailleurs, nous savons que des algorithmes d'apprentissage peuvent extraire ces indices directement depuis des images. Nous nous intéressons en particulier aux méthodes d’apprentissage statistique basées sur des réseaux de neurones profond qui ont récemment permis des percées majeures dans de nombreux domaines et nous étudions le cas de l'estimation de profondeur monoculaire
Computer vision is a branch of artificial intelligence whose purpose is to enable a machine to analyze, process and understand the content of digital images. Scene understanding in particular is a major issue in computer vision. It goes through a semantic and structural characterization of the image, on one hand to describe its content and, on the other hand, to understand its geometry. However, while the real space is three-dimensional, the image representing it is two-dimensional. Part of the 3D information is thus lost during the process of image formation and it is therefore non trivial to describe the geometry of a scene from 2D images of it.There are several ways to retrieve the depth information lost in the image. In this thesis we are interested in estimating a depth map given a single image of the scene. In this case, the depth information corresponds, for each pixel, to the distance between the camera and the object represented in this pixel. The automatic estimation of a distance map of the scene from an image is indeed a critical algorithmic brick in a very large number of domains, in particular that of autonomous vehicles (obstacle detection, navigation aids).Although the problem of estimating depth from a single image is a difficult and inherently ill-posed problem, we know that humans can appreciate distances with one eye. This capacity is not innate but acquired and made possible mostly thanks to the identification of indices reflecting the prior knowledge of the surrounding objects. Moreover, we know that learning algorithms can extract these clues directly from images. We are particularly interested in statistical learning methods based on deep neural networks that have recently led to major breakthroughs in many fields and we are studying the case of the monocular depth estimation
Styles APA, Harvard, Vancouver, ISO, etc.
16

Tuo, Aboubacar. « Extraction d'événements à partir de peu d'exemples par méta-apprentissage ». Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG098.

Texte intégral
Résumé :
L'extraction d'information est un champ de recherche dont l'objectif est d'identifier et extraire automatiquement des informations structurées, dans un domaine donné, à partir de données textuelles pas ou peu structurées. La mise en œuvre de telles extractions demande souvent des moyens humains importants pour l'élaboration de règles d'extraction ou encore pour la constitution de données annotées pour les systèmes utilisant de l'apprentissage automatique. Un des défis actuels dans le domaine de l'extraction d'information est donc de développer des méthodes permettant de réduire, dans la mesure du possible, les coûts et le temps de développement de ces systèmes. Ce travail de thèse se concentre sur l'exploration de l'extraction d'événements à travers l'utilisation du méta-apprentissage, une approche adaptée à l'apprentissage à partir de peu de données. Nous avons redéfini la tâche d'extraction d'événements dans cette perspective, cherchant à développer des systèmes capables de s'adapter rapidement à de nouveaux contextes d'extraction avec un faible volume de données d'entraînement. Dans un premier temps, nous avons proposé des méthodes visant à améliorer la détection des déclencheurs événementiels en développant des représentations plus robustes pour cette tâche. Ensuite, nous avons abordé le défi spécifique posé par la classe « NULLE » (absence d'événement) dans ce cadre. Enfin, nous avons évalué l'effectivité de nos propositions dans le contexte global de l'extraction d'événements en les étendant à l'extraction des arguments des événements
Information Extraction (IE) is a research field with the objective of automatically identifying and extracting structured information within a given domain from unstructured or minimally structured text data. The implementation of such extractions often requires significant human efforts, either in the form of rule development or the creation of annotated data for systems based on machine learning. One of the current challenges in information extraction is to develop methods that minimize the costs and development time of these systems whenever possible. This thesis focuses on few-shot event extraction through a meta-learning approach that aims to train IE models from only few data. We have redefined the task of event extraction from this perspective, aiming to develop systems capable of quickly adapting to new contexts with a small volume of training data. First, we propose methods to enhance event trigger detection by developing more robust representations for this task. Then, we tackle the specific challenge raised by the "NULL" class (absence of events) within this framework. Finally, we evaluate the effectiveness of our proposals within the broader context of event extraction by extending their application to the extraction of event arguments
Styles APA, Harvard, Vancouver, ISO, etc.
17

Boutin, Luc. « Biomimétisme, génération de trajectoires pour la robotique humanoïde à partir de mouvements humains ». Poitiers, 2009. http://theses.edel.univ-poitiers.fr/theses/2009/Boutin-Luc/2009-Boutin-Luc-These.pdf.

Texte intégral
Résumé :
La reproduction fidèle de la locomotion humaine est une problématique d'actualité concernant les robots humanoïdes. Les travaux présentés dans ce mémoire ont pour objectif de définir une procédure permettant l'imitation par les robots humanoïdes du mouvement humain. Dans un premier temps les techniques de l'analyse du mouvement humain sont présentées. Le protocole de mesure adopté est exposé, ainsi que le calcul des angles articulaires. La problématique de la détection des évènements de contact est abordée en proposant l'adaptation des méthodes existantes pour des mouvements complexes. Les algorithmes sont validés par une série de mesures effectuées sur une trentaine de sujets sains. La deuxième partie traite de la transposition du mouvement humain aux robots. Une fois la problématique générale et le processus de transposition définis, le critère d'équilibre des robots marcheurs est présenté. A partir des données du mouvement humain capturé, les trajectoires de référence des pieds et du ZMP sont définies. Une modification de ces trajectoires est ensuite effectuée dans le cas de risque de collision entre les pieds notamment dans le cas de l'exécution d’un slalom. Finallement un algorithme de cinématique inverse, développé pour cette problématique est utilisé pour déterminer les angles articulaires du robot associés aux trajectoires de référence des pieds et du ZMP. Plusieurs applications sur les robots HOAP-3 et HPR-2 sont présentées. Les trajectoires sont validées vis-à-vis du maintien de l'équilibre grâce à des simulations dynamiques du mouvement ainsi que vis-à-vis des limites des actionneurs
The true reproduction of human locomotion is a topical issue on humanoid robots. The goal of this work is to define a process to imitate the human motion with humanoid robots. In the first part, the motion capture techniques are presented. The measurement protocol adopted is exposed and the calculation of joint angles. An adaptation of three existing algorithms is proposed to detect the contact events during complex movements. The method is valided by measurements on thirty healthy subjects. The second part deals with the generation of humanoid trajectories imitating the human motion. Once the problem and the imitation process are defined, the balance criterion of walking robots is presented. Using data from human motion capture, the reference trajectories of the feet and ZMP are defined. These paths are modified to avoid collision between feet, particularly in the case of executing a slalom. Finally an inverse kinematics algorithm developed for this problem is used to determine the joint angles associated with the robot reference trajectories of the feet and ZMP. Several applications on robots HOAP-3 and HRP-2 are presented. The trajectories are validated according to the robot balance through dynamic simulations of the computed motion, and respecting the limits of actuators
Styles APA, Harvard, Vancouver, ISO, etc.
18

Deschamps, Sébastien. « Apprentissage actif profond pour la reconnaissance visuelle à partir de peu d’exemples ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS199.

Texte intégral
Résumé :
L’analyse automatique d’images a permis d’améliorer l’exploitation des capteurs d’image, avec des données qui proviennent de différents capteurs tels que des caméras de téléphone, des caméras de surveillance, des imageurs satellites ou encore des drones. L’apprentissage profond obtient d’excellents résultats dans les applications d’analyse d’images où de grandes quantités de données annotées sont disponibles, mais apprendre un nouveau classifieur d’images à partir de zéro est une tâche difficile. La plupart des méthodes de classification d’images sont supervisées, nécessitant des annotations, ce qui représente un investissement important. Différentes solutions d’apprentissage frugal (avec peu d’exemples annotés) existent, notamment l’apprentissage par transfert, l’apprentissage actif, l’apprentissage semi-supervisé ou bien le méta-apprentissage. L’objectif de cette thèse est d’étudier ces solutions d’apprentissage frugal pour des tâches de reconnaissance visuelle, notamment la classification d’images et la détection des changements dans des images satellites. Ainsi, le classifieur est entraîné de façon itérative en commençant avec très peu de données, et en demandant à l’utilisateur d’annoter le moins possible de données pour obtenir des performances satisfaisantes. L’apprentissage actif profond a été étudié initialement avec d’autres méthodes et nous a semblé le plus adapté à notre problématique métier, nous avons donc privilégié cette solution. Nous avons développé dans cette thèse une première approche interactive, où nous posons les questions les plus informatives sur la pertinence des données à un oracle (annotateur). En fonction de ses réponses, une fonction de décision est mise à jour itérativement. Nous modélisons la probabilité que les échantillons soient pertinents, en minimisant une fonction objectif capturant la représentativité, la diversité et l’ambiguïté des données. Les données avec une probabilité élevée sont ensuite sélectionnées pour annotation. Nous avons fait évoluer cette approche, en utilisant l’apprentissage par renforcement pour pondérer dynamiquement et précisément l’importance de la représentativité, l’ambiguïté et la diversité des données à chaque cycle d’apprentissage actif. Finalement, notre dernière approche consiste en un modèle d’affichage qui sélectionne des exemples virtuels les plus représentatifs et divers, qui remettent en question le modèle appris, de sorte à obtenir un modèle très discriminatoire dans les itérations suivantes de l’apprentissage actif. Les bons résultats obtenus face aux différentes baselines et l’état de l’art, en détection de changements dans des images satellites et en classification d’images, ont permis de démontrer la pertinence des modèles d'apprentissage frugal proposés, et ont donné lieu à diverses publications (Sahbi et al. 2021 ; Deschamps et Sahbi 2022b ; Deschamps et Sahbi 2022a ; Sahbi et Deschamps 2022)
Automatic image analysis has improved the exploitation of image sensors, with data coming from different sensors such as phone cameras, surveillance cameras, satellite imagers or even drones. Deep learning achieves excellent results in image analysis applications where large amounts of annotated data are available, but learning a new image classifier from scratch is a difficult task. Most image classification methods are supervised, requiring annotations, which is a significant investment. Different frugal learning solutions (with few annotated examples) exist, including transfer learning, active learning, semi-supervised learning or meta-learning. The goal of this thesis is to study these frugal learning solutions for visual recognition tasks, namely image classification and change detection in satellite images. The classifier is trained iteratively by starting with only a few annotated samples, and asking the user to annotate as little data as possible to obtain satisfactory performance. Deep active learning was initially studied with other methods and suited our operational problem the most, so we chose this solution. In this thesis, we have developed an interactive approach, where we ask the most informative questions about the relevance of the data to an oracle (annotator). Based on its answers, a decision function is iteratively updated. We model the probability that the samples are relevant, by minimizing an objective function capturing the representativeness, diversity and ambiguity of the data. Data with high probability are then selected for annotation. We have improved this approach, using reinforcement learning to dynamically and accurately weight the importance of representativeness, diversity and ambiguity of the data in each active learning cycle. Finally, our last approach consists of a display model that selects the most representative and diverse virtual examples, which adversely challenge the learned model, in order to obtain a highly discriminative model in subsequent iterations of active learning. The good results obtained against the different baselines and the state of the art in the tasks of satellite image change detection and image classification have demonstrated the relevance of the proposed frugal learning models, and have led to various publications (Sahbi et al. 2021; Deschamps and Sahbi 2022b; Deschamps and Sahbi 2022a; Sahbi and Deschamps2022)
Styles APA, Harvard, Vancouver, ISO, etc.
19

DUVAL, BEATRICE. « Apprentissage a partir d'explications dans une theorie incomplete : completion d'explications partielles ». Paris 11, 1991. http://www.theses.fr/1991PA112244.

Texte intégral
Résumé :
Notre these s'interesse au probleme de l'apprentissage symbolique automatique, et plus precisement, propose une methode d'apprentissage permettant de completer une theorie du domaine grace a l'etude d'un nombre limite d'exemples. Notre methode s'inspire de l'apprentissage a partir d'explications. L'apprentissage a partir d'explications ne peut s'appliquer que dans une theorie complete, correcte et de faible complexite puisque l'apprentissage resulte de l'explication, c'est-a-dire de la preuve deductive d'un exemple. Notre travail s'interesse au traitement des theories incompletes et propose grace a l'analyse d'un exemple partiellement explique des raffinements de la theorie initiale. Le procede d'apprentissage repose sur une methode descendante qui calcule les preuves partielles de l'exemple puis recherche des completions possibles de ces explications partielles. La phase de completion s'appuie sur le raisonnement par analogie entre preuves et une etape de generalisation conduit a proposer des complements de definition pour certains concepts de la theorie. Les hypotheses de completion envisagees par le systeme sont soumises a l'approbation de l'utilisateur. Neanmoins, afin de limiter les hypotheses envisageables, nous utilisons un test de satisfaction des contraintes d'integrite. Les contraintes d'integrite ont ete jusqu'ici tres peu utilisees dans les systemes d'apprentissage; nous montrons qu'elles permettent d'ecarter certaines hypotheses, mais aussi qu'elles contribuent a la detection des causes d'echecs dans les preuves partielles. L'etude que nous avons menee nous a conduit a realiser le systeme abdu implemente en macprolog
Styles APA, Harvard, Vancouver, ISO, etc.
20

Dubois, Vincent. « Apprentissage approximatif et extraction de connaissances à partir de données textuelles ». Nantes, 2003. http://www.theses.fr/2003NANT2001.

Texte intégral
Résumé :
La problématique de cette thèse est l'extraction de connaissances à partir de données textuelles (KDT) en se basant sur la théorie des ensembles approximatifs (RST) et l'apprentissage symbolique et numérique. Les contributions sont : (1) l'extension des espaces de versions (espaces de versions approximatifs (RVS)), (2) l'application des RVS au KDT, (3) la découverte et visualisation de graphes à partir de textes. Tout d'abord, nous définissons les espaces de versions approximatifs (RVS), en construisant des opérateurs d'approximation, ce qui aboutit à un cadre général pour l'apprentissage symbolique automatique. L'introduction de la notion de consistance approximative conduit à l'utilisation de concepts presque consistants avec les données. En pratique, cela a pour effet d'étendre l'interprétation des concepts lors de l'apprentissage, et de traiter les données inconsistantes à l'aide de regroupement des exemples. . .
Styles APA, Harvard, Vancouver, ISO, etc.
21

Jouve, Pierre-Emmanuel. « Apprentissage non supervisé et extraction de connaissances à partir de données ». Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/jouve_pe.

Texte intégral
Résumé :
Les travaux constituant cette dissertation concernent la classification non supervisée. Cette problématique, commune à de multiples domaines (et ainsi connue sous diverses acceptions : apprentissage/classification non supervisé(e) en reconnaissance de formes, taxonomie en sciences de la vie, typologie en sciences humaines. . . ), est ici envisagée selon la perspective Ingénierie des Connaissances et plus spécifiquement dans le cadre de son intégration au sein du processus dExtraction de Connaissances à partir de Données (ECD). D'une part, nos travaux participent à l'amélioration du processus de classification non supervisée, et ce, selon divers axes propres ou non à l'ECD (coût calculatoire et utilisabilité des méthodes, formes et distribution des données traitées, forme des connaissances extraites, sélection de variables pour l'apprentissage non supervisé. . . ) mais aussi à l'évaluation de la qualité d'un processus de classification non supervisée (estimation de la validité des résultats issus du processus). D'autre part ces travaux visent à illustrer le lien très étroit unissant apprentissage non supervisé et apprentissage supervisé et à monter l'intérêt d'une intéraction antre ces deux types de processus. Concrètement, ces divers problèmes sont abordé et présentés au travers d'une nouvelle méthode de classification non supervisée, de deux nouveaux indices et d'une méthodologie dédiés à l'évaluation/comparaison de la validité de classification non superviséé, de méthodes de sélection de variables pour l'apprentissage non supervisé et l'apprentissage supervisé, de plusieurs méthodes pour l'agrégation de classification non supervisée.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Henniche, M'hammed. « Apprentissage incrémental à partir d'exemples dans un espace de recherche réduit ». Paris 13, 1998. http://www.theses.fr/1998PA13A001.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Jouve, Pierre-Emmanuel Nicoloyannis Nicolas. « Apprentissage non supervisé et extraction de connaissances à partir de données ». Lyon : Université Lumière Lyon 2, 2003. http://demeter.univ-lyon2.fr/sdx/theses/lyon2/2003/jouve_pe.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
24

Luc, Pauline. « Apprentissage autosupervisé de modèles prédictifs de segmentation à partir de vidéos ». Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM024/document.

Texte intégral
Résumé :
Les modèles prédictifs ont le potentiel de permettre le transfert des succès récents en apprentissage par renforcement à de nombreuses tâches du monde réel, en diminuant le nombre d’interactions nécessaires avec l’environnement.La tâche de prédiction vidéo a attiré un intérêt croissant de la part de la communauté ces dernières années, en tant que cas particulier d’apprentissage prédictif dont les applications en robotique et dans les systèmes de navigations sont vastes.Tandis que les trames RGB sont faciles à obtenir et contiennent beaucoup d’information, elles sont extrêmement difficile à prédire, et ne peuvent être interprétées directement par des applications en aval.C’est pourquoi nous introduisons ici une tâche nouvelle, consistant à prédire la segmentation sémantique ou d’instance de trames futures.Les espaces de descripteurs que nous considérons sont mieux adaptés à la prédiction récursive, et nous permettent de développer des modèles de segmentation prédictifs performants jusqu’à une demi-seconde dans le futur.Les prédictions sont interprétables par des applications en aval et demeurent riches en information, détaillées spatialement et faciles à obtenir, en s’appuyant sur des méthodes état de l’art de segmentation.Dans cette thèse, nous nous attachons d’abord à proposer pour la tâche de segmentation sémantique, une approche discriminative se basant sur un entrainement par réseaux antagonistes.Ensuite, nous introduisons la tâche nouvelle de prédiction de segmentation sémantique future, pour laquelle nous développons un modèle convolutionnel autoregressif.Enfin, nous étendons notre méthode à la tâche plus difficile de prédiction de segmentation d’instance future, permettant de distinguer entre différents objets.Du fait du nombre de classes variant selon les images, nous proposons un modèle prédictif dans l’espace des descripteurs d’image convolutionnels haut niveau du réseau de segmentation d’instance Mask R-CNN.Cela nous permet de produire des segmentations visuellement plaisantes en haute résolution, pour des scènes complexes comportant un grand nombre d’objets, et avec une performance satisfaisante jusqu’à une demi seconde dans le futur
Predictive models of the environment hold promise for allowing the transfer of recent reinforcement learning successes to many real-world contexts, by decreasing the number of interactions needed with the real world.Video prediction has been studied in recent years as a particular case of such predictive models, with broad applications in robotics and navigation systems.While RGB frames are easy to acquire and hold a lot of information, they are extremely challenging to predict, and cannot be directly interpreted by downstream applications.Here we introduce the novel tasks of predicting semantic and instance segmentation of future frames.The abstract feature spaces we consider are better suited for recursive prediction and allow us to develop models which convincingly predict segmentations up to half a second into the future.Predictions are more easily interpretable by downstream algorithms and remain rich, spatially detailed and easy to obtain, relying on state-of-the-art segmentation methods.We first focus on the task of semantic segmentation, for which we propose a discriminative approach based on adversarial training.Then, we introduce the novel task of predicting future semantic segmentation, and develop an autoregressive convolutional neural network to address it.Finally, we extend our method to the more challenging problem of predicting future instance segmentation, which additionally segments out individual objects.To deal with a varying number of output labels per image, we develop a predictive model in the space of high-level convolutional image features of the Mask R-CNN instance segmentation model.We are able to produce visually pleasing segmentations at a high resolution for complex scenes involving a large number of instances, and with convincing accuracy up to half a second ahead
Styles APA, Harvard, Vancouver, ISO, etc.
25

Elati, Mohamed. « Apprentissage de réseaux de régulation génétique à partir de données d'expression ». Paris 13, 2007. http://www.theses.fr/2007PA132031.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Ould, Abdel Vetah Mohamed. « Apprentissage automatique appliqué à l'extraction d'information à partir de textes biologiques ». Paris 11, 2005. http://www.theses.fr/2005PA112133.

Texte intégral
Résumé :
Dans le cadre de cette thèse nous nous sommes intéressés à l'extraction d'informations à partir de données textuelles. Dans ce domaine, deux grandes approches co-existent. La première, qui consiste en un traitement statistique superficiel présente l'avantage d'avoir une mise en oeuvre facile. En revanche, l'information extraite est souvent imprécise, de nature incomplète et bruitée. La deuxième voie, consiste à privilégier des techniques plus profondes d'analyse et de normalisation textuelles ainsi que l'exploitation des techniques d'apprentissage automatique pour acquérir les ressources nécessaires à la tâche. Ce type d'approche, complexe et dont la mise en oeuvre est difficile permet une meilleure prise en compte de la diversité des formulations dans le texte. Il permet également un gain de temps appréciable quand il s'agit d'adapter les ressources, notamment quand la tâche d'extraction change. Dans cette thèse, nous avons contribué à la mise en place d'une chaîne complète d'extraction des interactions géniques à partir de résumés scientifique issus de MedLine basée sur cette seconde famille d'approches. Dans la première partie de notre travail, nous avons mis au point un module de filtrage de phrases, disponible en ligne et déjà utilisé par les biologistes, permettant d'identifier automatiquement les phrases parlant d'interactions. Dans un deuxième temps, nous avons proposé une méthode originale d'acquisition de règles d'extraction basée sur une abstraction de l'analyse syntaxique Les résultats préliminaires obtenus sont prometteurs et montrent que cette abstraction permet d'obtenir une bonne représentation pour l'apprentissage des règles d'extraction
This thesis is about information extraction from textual data. Two main approaches co-exist in this field. The first approach is based on shallow text analysis. These methods are easy to implement but the information they extract is often incomplete and noisy. The second approach requires deeper structural linguistic information. Compared to the first approach, it has the double advantage of being easily adaptable and of taking into account the diversity of formulation which is an intrinsic characteristic of textual data. In this thesis, we have contributed to the realization of a complete information extraction tool based on this latter approach. Our tool is dedicated to the automatic extraction of gene interactions described in MedLine abstracts. In the first part of the work, we develop a filtering module that allows the user to identify the sentences referring to gene interactions. The module is available on line and already used by biologists. The second part of the work introduces an original methodology based on an abstraction of the syntactic analysis for automatical learning of information extraction rules. The preliminary results are promising and show that our abstraction approach provides a good representation for learning extraction rules
Styles APA, Harvard, Vancouver, ISO, etc.
27

Xia, Chen. « Apprentissage Intelligent des Robots Mobiles dans la Navigation Autonome ». Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0026/document.

Texte intégral
Résumé :
Les robots modernes sont appelés à effectuer des opérations ou tâches complexes et la capacité de navigation autonome dans un environnement dynamique est un besoin essentiel pour les robots mobiles. Dans l’objectif de soulager de la fastidieuse tâche de préprogrammer un robot manuellement, cette thèse contribue à la conception de commande intelligente afin de réaliser l’apprentissage des robots mobiles durant la navigation autonome. D’abord, nous considérons l’apprentissage des robots via des démonstrations d’experts. Nous proposons d’utiliser un réseau de neurones pour apprendre hors-ligne une politique de commande à partir de données utiles extraites d’expertises. Ensuite, nous nous intéressons à l’apprentissage sans démonstrations d’experts. Nous utilisons l’apprentissage par renforcement afin que le robot puisse optimiser une stratégie de commande pendant le processus d’interaction avec l’environnement inconnu. Un réseau de neurones est également incorporé et une généralisation rapide permet à l’apprentissage de converger en un certain nombre d’épisodes inférieur à la littérature. Enfin, nous étudions l’apprentissage par fonction de récompenses potentielles compte rendu des démonstrations d’experts optimaux ou non-optimaux. Nous proposons un algorithme basé sur l’apprentissage inverse par renforcement. Une représentation non-linéaire de la politique est désignée et la méthode du max-margin est appliquée permettant d’affiner les récompenses et de générer la politique de commande. Les trois méthodes proposées sont évaluées sur des robots mobiles afin de leurs permettre d’acquérir les compétences de navigation autonome dans des environnements dynamiques et inconnus
Modern robots are designed for assisting or replacing human beings to perform complicated planning and control operations, and the capability of autonomous navigation in a dynamic environment is an essential requirement for mobile robots. In order to alleviate the tedious task of manually programming a robot, this dissertation contributes to the design of intelligent robot control to endow mobile robots with a learning ability in autonomous navigation tasks. First, we consider the robot learning from expert demonstrations. A neural network framework is proposed as the inference mechanism to learn a policy offline from the dataset extracted from experts. Then we are interested in the robot self-learning ability without expert demonstrations. We apply reinforcement learning techniques to acquire and optimize a control strategy during the interaction process between the learning robot and the unknown environment. A neural network is also incorporated to allow a fast generalization, and it helps the learning to converge in a number of episodes that is greatly smaller than the traditional methods. Finally, we study the robot learning of the potential rewards underneath the states from optimal or suboptimal expert demonstrations. We propose an algorithm based on inverse reinforcement learning. A nonlinear policy representation is designed and the max-margin method is applied to refine the rewards and generate an optimal control policy. The three proposed methods have been successfully implemented on the autonomous navigation tasks for mobile robots in unknown and dynamic environments
Styles APA, Harvard, Vancouver, ISO, etc.
28

Zehraoui, Farida. « Systèmes d'apprentissage connexionnistes et raisonnement à partir de cas pour la classification et le classement de séquence ». Paris 13, 2004. http://www.theses.fr/2004PA132007.

Texte intégral
Résumé :
La thèse porte sur l'utilisation de techniques d'apprentissage automatique pour le traitement de séquences. Ce travail est motivé par une application réelle qui consiste à modéliser le comportement d'un internaute à partir de traces de navigations. Nous avons d'abord proposé un système de raisonnement à partir de cas (RàPC) << CASEP >> pour le classement ou la prédiction à partir de séquences. Des mesures de maintenance sont associées aux cas pour faire face au bruit contenu dans les données et pour effectuer la réduction de la base de cas. Nous avons ensuite proposé plusieurs modèles de cartes auto-organisatrices (SOM) pour la classification et le classement de séquences. Nous nous sommes intéressés à l'insertion des propriétés de plasticité et de stabilité dans une carte SOM ainsi qu'au traitement des séquences temporelles. A la fin de cette étude, nous avons travaillé sur la possibilité de coopération des systèmes connexionnistes avec l'approche de RàPC afin de concevoir des systèmes hybrides. Nous avons ainsi proposé le système hybride << CASEP2 >> qui combine le raisonnement à partir de cas avec l'un des réseaux de neurones que nous avons proposés.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Lu, Cheng-Ren. « Apprentissage incrémental par analogie : le système OGUST⁺ ». Paris 11, 1989. http://www.theses.fr/1989PA112393.

Texte intégral
Résumé :
Nous présentons dans cette thèse le système d'apprentissage OGUST+, une extension du système OGUST. OGUST+, comme son prédécesseur, est un système de généralisation à partir d'exemples. Il cherche une des généralisations les plus spécifiques. L'amélioration d'OGUST+, par rapport à OGUST, consiste en sa capacité de faire de l'apprentissage incrémental, dans la mesure où il peut accepter une série d'exemples les uns après les autres, sans recommencer le processus d'apprentissage avec pour entrée tous les exemples. L'analogie est la méthode de base pour faire de l'apprentissage incrémental. Etant donné un nouvel exemple, on cherche d'abord parmi les exemples déjà traités, un exemple Ei très "similaire" au nouvel exemple, on consulte ensuite les explications qu'OGUST fournit pour savoir comment cet ancien exemple a été généralisé, et puis on généralise le nouvel exemple tout en simulant le processus de la généralisation de l'ancien exemple choisi. L'analogie permet de tenir compte des similarités entre les exemples et de trouver de bons appariements entre les objets dans la généralisation et les objets dans les exemples. Elle nous offre de meilleures garanties pour obtenir une bonne généralisation. Une stratégie de retour en arrière est conçue dans cette thèse pour traiter une éventuelle sur-généralisation des exemples. Puisque la stratégie de recherche de généralisations adaptée dans le système est la stratégie en profondeur d'abord, nous sommes obligés de retourner en arrière, si une sur-généralisation se produit. Nous avons défini des conditions de retour arrière qui, une fois satisfaites, déclenchent le processus de retour arrière pour retrouver une des généralisations les plus spécifiques. Le système préserve son incrémentalité, lors de retour arrière, en ne considérant qu'un sous ensemble d'exemples présentés.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Pradel, Bruno. « Evaluation des systèmes de recommandation à partir d'historiques de données ». Paris 6, 2013. http://www.theses.fr/2013PA066263.

Texte intégral
Résumé :
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
Styles APA, Harvard, Vancouver, ISO, etc.
31

Le, Folgoc Loïc. « Apprentissage statistique pour la personnalisation de modèles cardiaques à partir de données d’imagerie ». Thesis, Nice, 2015. http://www.theses.fr/2015NICE4098/document.

Texte intégral
Résumé :
Cette thèse porte sur un problème de calibration d'un modèle électromécanique de cœur, personnalisé à partir de données d'imagerie médicale 3D+t ; et sur celui - en amont - de suivi du mouvement cardiaque. A cette fin, nous adoptons une méthodologie fondée sur l'apprentissage statistique. Pour la calibration du modèle mécanique, nous introduisons une méthode efficace mêlant apprentissage automatique et une description statistique originale du mouvement cardiaque utilisant la représentation des courants 3D+t. Notre approche repose sur la construction d'un modèle statistique réduit reliant l'espace des paramètres mécaniques à celui du mouvement cardiaque. L'extraction du mouvement à partir d'images médicales avec quantification d'incertitude apparaît essentielle pour cette calibration, et constitue l'objet de la seconde partie de cette thèse. Plus généralement, nous développons un modèle bayésien parcimonieux pour le problème de recalage d'images médicales. Notre contribution est triple et porte sur un modèle étendu de similarité entre images, sur l'ajustement automatique des paramètres du recalage et sur la quantification de l'incertitude. Nous proposons une technique rapide d'inférence gloutonne, applicable à des données cliniques 4D. Enfin, nous nous intéressons de plus près à la qualité des estimations d'incertitude fournies par le modèle. Nous comparons les prédictions du schéma d'inférence gloutonne avec celles données par une procédure d'inférence fidèle au modèle, que nous développons sur la base de techniques MCMC. Nous approfondissons les propriétés théoriques et empiriques du modèle bayésien parcimonieux et des deux schémas d'inférence
This thesis focuses on the calibration of an electromechanical model of the heart from patient-specific, image-based data; and on the related task of extracting the cardiac motion from 4D images. Long-term perspectives for personalized computer simulation of the cardiac function include aid to the diagnosis, aid to the planning of therapy and prevention of risks. To this end, we explore tools and possibilities offered by statistical learning. To personalize cardiac mechanics, we introduce an efficient framework coupling machine learning and an original statistical representation of shape & motion based on 3D+t currents. The method relies on a reduced mapping between the space of mechanical parameters and the space of cardiac motion. The second focus of the thesis is on cardiac motion tracking, a key processing step in the calibration pipeline, with an emphasis on quantification of uncertainty. We develop a generic sparse Bayesian model of image registration with three main contributions: an extended image similarity term, the automated tuning of registration parameters and uncertainty quantification. We propose an approximate inference scheme that is tractable on 4D clinical data. Finally, we wish to evaluate the quality of uncertainty estimates returned by the approximate inference scheme. We compare the predictions of the approximate scheme with those of an inference scheme developed on the grounds of reversible jump MCMC. We provide more insight into the theoretical properties of the sparse structured Bayesian model and into the empirical behaviour of both inference schemes
Styles APA, Harvard, Vancouver, ISO, etc.
32

Brigot, Guillaume. « Prédire la structure des forêts à partir d'images PolInSAR par apprentissage de descripteurs LIDAR ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS584/document.

Texte intégral
Résumé :
Ce travail de thèse a pour objectif la prédiction des paramètres structurels des forêts à grande échelle, grâce aux images de télédétection. La démarche consiste à étendre la précision des données LIDAR spatiales, en les utilisant là où elles sont disponibles, en tant que donnée d'apprentissage pour les images radar à synthèse d'ouverture polarimétriques et interférométrique (PolInSAR). A partir de l'analyse des propriétés géométriques de la forme de cohérence PolInSAR, nous avons proposé un ensemble de paramètres susceptibles d'avoir une corrélation forte avec les profils de densité LIDAR en milieu forestier. Cette description a été utilisée comme données d'entrée de techniques SVM, de réseaux de neurones, et de forêts aléatoires, afin d'apprendre un ensemble de descripteurs de forêts issus du LIDAR : la hauteur totale, le type de profil vertical, et la couverture horizontale. L'application de ces techniques à des données réelles aéroportées de forêts boréales en Suède et au Canada, et l'évaluation de leur précision, démontrent la pertinence de la méthode. Celle-ci préfigure les traitements qui pourront être appliqués à l'échelle planétaires aux futures missions satellites dédiées à la forêt : Biomass, Tandem-L et NiSAR
The objective of this thesis is to predict the structural parameters of forests on a large scale using remote sensing images. The approach is to extend the accuracy of LIDAR full waveforms, on a larger area covered by polarimetric and interferometric (PolInSAR) synthetic aperture radar images using machine learning methods. From the analysis of the geometric properties of the PolInSAR coherence shape, we proposed a set of parameters that are likely to have a strong correlation with the LIDAR density profiles on forest lands. These features were used as input data for SVM techniques, neural networks, and random forests, in order to learn a set of forest descriptors deduced from LIDAR: the canopy height, the vertical profile type, and the canopy cover. The application of these techniques to airborne data over boreal forests in Sweden and Canada, and the evaluation of their accuracy, demonstrate the relevance of the method. This approach can be soon be adapted for future satellite missions dedicated to the forest: Biomass, Tandem-L and NiSAR
Styles APA, Harvard, Vancouver, ISO, etc.
33

Gauthier, Luc-Aurélien. « Inférence de liens signés dans les réseaux sociaux, par apprentissage à partir d'interactions utilisateur ». Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066639/document.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la sémantique des relations entre les utilisateurs et des forces antagonistes que nous observons naturellement dans diverses relations sociales, comme hostilité ou méfiance. L'étude de ces relations soulève de nombreux problèmes à la fois techniques, puisque l'arsenal mathématique n'est souvent pas adapté aux liens négatifs, mais aussi pratiques à cause de la difficulté rencontrée pour collecter de telles données (expliciter une relation négative est perçu comme malvenu pour de nombreux utilisateurs). Nous nous intéressons alors aux solutions alternatives de collecte afin d'inférer ces relations négatives à partir d'autres contenus. En particulier, nous allons utiliser les jugements communs que les utilisateurs partagent à propos d'items (données des systèmes de recommandation). Nous apportons trois contributions. Dans la première, nous allons aborder le cas des accords sur les items qui peuvent ne pas avoir la même sémantique selon qu'ils concernent des items appréciés ou non par les utilisateurs. Nous verrons que le fait de ne pas aimer un même produit n'est pas synonyme de similarité. Ensuite, nous allons prendre en compte dans notre seconde contribution les distributions de notes des utilisateurs et des items afin de mesurer si les accords ou les désaccords arrivent par hasard ou non, afin notamment d'éviter les conséquences des différents biais utilisateurs et items présents dans ce type de données. Enfin, notre troisième contribution consistera à exploiter ces différents résultats afin de prédire le signe des liens entre utilisateurs à partir des seuls jugements communs à propos des items et sans aucune information sociale négative
In this thesis, we study the semantic of relations between users and, in particular, the antagonistic forces we naturally observe in various social relationships, such as hostility or suspicion. The study of these relationships raises many problems both techniques - because the mathematical arsenal is not really adapted to the negative ties - and practical, due to the difficulty of collecting such data (explaining a negative relationship is perceived as intrusive and inappropriate for many users). That’s why we focus on the alternative solutions consisting in inferring these negative relationships from more widespread content. We use the common judgments about items the users share, which are the data used in recommender systems. We provide three contributions, described in three distinct chapters. In the first one, we discuss the case of agreements about items that may not have the same semantics if they involve appreciated items or not by two users. We will see that disliking the same product does not mean similarity. Afterward, we consider in our second contribution the distributions of user ratings and items ratings in order to measure whether the agreements or disagreements may happen by chance or not, in particular to avoid the user and item biases observed in this type of data. Our third contribution consists in using these results to predict the sign of the links between users from the only positive ties and the common judgments about items, and then without any negative social information
Styles APA, Harvard, Vancouver, ISO, etc.
34

Gauthier, Luc-Aurélien. « Inférence de liens signés dans les réseaux sociaux, par apprentissage à partir d'interactions utilisateur ». Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066639.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la sémantique des relations entre les utilisateurs et des forces antagonistes que nous observons naturellement dans diverses relations sociales, comme hostilité ou méfiance. L'étude de ces relations soulève de nombreux problèmes à la fois techniques, puisque l'arsenal mathématique n'est souvent pas adapté aux liens négatifs, mais aussi pratiques à cause de la difficulté rencontrée pour collecter de telles données (expliciter une relation négative est perçu comme malvenu pour de nombreux utilisateurs). Nous nous intéressons alors aux solutions alternatives de collecte afin d'inférer ces relations négatives à partir d'autres contenus. En particulier, nous allons utiliser les jugements communs que les utilisateurs partagent à propos d'items (données des systèmes de recommandation). Nous apportons trois contributions. Dans la première, nous allons aborder le cas des accords sur les items qui peuvent ne pas avoir la même sémantique selon qu'ils concernent des items appréciés ou non par les utilisateurs. Nous verrons que le fait de ne pas aimer un même produit n'est pas synonyme de similarité. Ensuite, nous allons prendre en compte dans notre seconde contribution les distributions de notes des utilisateurs et des items afin de mesurer si les accords ou les désaccords arrivent par hasard ou non, afin notamment d'éviter les conséquences des différents biais utilisateurs et items présents dans ce type de données. Enfin, notre troisième contribution consistera à exploiter ces différents résultats afin de prédire le signe des liens entre utilisateurs à partir des seuls jugements communs à propos des items et sans aucune information sociale négative
In this thesis, we study the semantic of relations between users and, in particular, the antagonistic forces we naturally observe in various social relationships, such as hostility or suspicion. The study of these relationships raises many problems both techniques - because the mathematical arsenal is not really adapted to the negative ties - and practical, due to the difficulty of collecting such data (explaining a negative relationship is perceived as intrusive and inappropriate for many users). That’s why we focus on the alternative solutions consisting in inferring these negative relationships from more widespread content. We use the common judgments about items the users share, which are the data used in recommender systems. We provide three contributions, described in three distinct chapters. In the first one, we discuss the case of agreements about items that may not have the same semantics if they involve appreciated items or not by two users. We will see that disliking the same product does not mean similarity. Afterward, we consider in our second contribution the distributions of user ratings and items ratings in order to measure whether the agreements or disagreements may happen by chance or not, in particular to avoid the user and item biases observed in this type of data. Our third contribution consists in using these results to predict the sign of the links between users from the only positive ties and the common judgments about items, and then without any negative social information
Styles APA, Harvard, Vancouver, ISO, etc.
35

Khiali, Lynda. « Fouille de données à partir de séries temporelles d’images satellites ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS046/document.

Texte intégral
Résumé :
Les images satellites représentent de nos jours une source d’information incontournable. Elles sont exploitées dans diverses applications, telles que : la gestion des risques, l’aménagent des territoires, la cartographie du sol ainsi qu’une multitude d’autre taches. Nous exploitons dans cette thèse les Séries Temporelles d’Images Satellites (STIS) pour le suivi des évolutions des habitats naturels et semi-naturels. L’objectif est d’identifier, organiser et mettre en évidence des patrons d’évolution caractéristiques de ces zones.Nous proposons des méthodes d’analyse de STIS orientée objets, en opposition aux approches par pixel, qui exploitent des images satellites segmentées. Nous identifions d’abord les profils d’évolution des objets de la série. Ensuite, nous analysons ces profils en utilisant des méthodes d’apprentissage automatique. Afin d’identifier les profils d’évolution, nous explorons les objets de la série pour déterminer un sous-ensemble d’objets d’intérêt (entités spatio-temporelles/objets de référence). L’évolution de ces entités spatio-temporelles est ensuite illustrée en utilisant des graphes d’évolution.Afin d’analyser les graphes d’évolution, nous avons proposé trois contributions. La première contribution explore des STIS annuelles. Elle permet d’analyser les graphes d’évolution en utilisant des algorithmes de clustering, afin de regrouper les entités spatio-temporelles évoluant similairement. Dans la deuxième contribution, nous proposons une méthode d’analyse pluri-annuelle et multi-site. Nous explorons plusieurs sites d’étude qui sont décrits par des STIS pluri-annuelles. Nous utilisons des algorithmes de clustering afin d’identifier des similarités intra et inter-site. Dans la troisième contribution, nous introduisons une méthode d’analyse semi-supervisée basée sur du clustering par contraintes. Nous proposons une méthode de sélection de contraintes. Ces contraintes sont utilisées pour guider le processus de clustering et adapter le partitionnement aux besoins de l’utilisateur.Nous avons évalué nos travaux sur différents sites d’étude. Les résultats obtenus ont permis d’identifier des profils d’évolution types sur chaque site d’étude. En outre, nous avons aussi identifié des évolutions caractéristiques communes à plusieurs sites. Par ailleurs, la sélection de contraintes pour l’apprentissage semi-supervisé a permis d’identifier des entités profitables à l’algorithme de clustering. Ainsi, les partitionnements obtenus en utilisant l’apprentissage non supervisé ont été améliorés et adaptés aux besoins de l’utilisateur
Nowadays, remotely sensed images constitute a rich source of information that can be leveraged to support several applications including risk prevention, land use planning, land cover classification and many other several tasks. In this thesis, Satellite Image Time Series (SITS) are analysed to depict the dynamic of natural and semi-natural habitats. The objective is to identify, organize and highlight the evolution patterns of these areas.We introduce an object-oriented method to analyse SITS that consider segmented satellites images. Firstly, we identify the evolution profiles of the objects in the time series. Then, we analyse these profiles using machine learning methods. To identify the evolution profiles, we explore all the objects to select a subset of objects (spatio-temporal entities/reference objects) to be tracked. The evolution of the selected spatio-temporal entities is described using evolution graphs.To analyse these evolution graphs, we introduced three contributions. The first contribution explores annual SITS. It analyses the evolution graphs using clustering algorithms, to identify similar evolutions among the spatio-temporal entities. In the second contribution, we perform a multi-annual cross-site analysis. We consider several study areas described by multi-annual SITS. We use the clustering algorithms to identify intra and inter-site similarities. In the third contribution, we introduce à semi-supervised method based on constrained clustering. We propose a method to select the constraints that will be used to guide the clustering and adapt the results to the user needs.Our contributions were evaluated on several study areas. The experimental results allow to pinpoint relevant landscape evolutions in each study sites. We also identify the common evolutions among the different sites. In addition, the constraint selection method proposed in the constrained clustering allows to identify relevant entities. Thus, the results obtained using the unsupervised learning were improved and adapted to meet the user needs
Styles APA, Harvard, Vancouver, ISO, etc.
36

Touati-Amar, Nassera. « Modes de rationalisation et processus d'apprentissage au sein des organisations : Réflexions à partir d’études de cas en milieu bancaire ». ENSMP, 1996. http://www.theses.fr/1996ENMP0699.

Texte intégral
Résumé :
Ce travail de recherche s'intéresse au thème de l'apprentissage organisationnel. Il est proposé de définir l'apprentissage organisationnel comme étant un processus d'élaboration, dans le cadre d'une situation organisationnelle, de règles d'interaction induisant des apprentissages individuels. Cette vision interactionniste, reposant notamment sur une relecture des travaux de Piaget, nous semble plus riche du point de vue des potentialités d'intervention qu'elle offre, en particulier parce qu'elle articule l'analyse de la nature de l'activité, des dispositifs de coordination et de la dynamique des savoirs. En approfondissant cette vision, et ce à partir d’études de cas en milieu bancaire, nous avons été amenés à associer à des logiques d'instrumentation de la gestion des risques des logiques d'apprentissage (concentre ou reparti) : le choix de ces logiques d'instrumentation dépend de la nature de l’activité. De cette analyse, a émergé la notion d'outil d'apprentissage (illustré ici par un outil d'aide au raisonnement) comme outil structurellement orienté vers la production d'apprentissages repartis : à ces outils d'aide au raisonnement, correspondent des propriétés structurelles et d'usage spécifiques. De même, l'organisation est appelée à prendre acte de ces objectifs d'apprentissage, en particulier à travers la définition des missions, des procédures de travail collectives et des mécanismes d'incitation. La mise en œuvre de ce modèle de rationalisation passe par l'existence d'un réseau d'acteurs méthodes jouant le rôle de vecteurs d'apprentissage. Finalement, ce modèle de rationalisation (fonde sur la mise en œuvre d'un outil d'aide au raisonnement) a été mis en perspective par rapport à d'autres démarches de rationalisation visant la promotion d'une dynamique d'apprentissage reparti
This work deals with the theme of the organizational learning. We propose to define organizational learning as an elaborational process of interaction rules, in an organizational situation, inducing individual learnings. This vision, based notably upon piaget work, seems rich to us as regards to its potential implementation in entreprises, especially because it links three levels of analysis : the activity type, the coordination rules and the knowledge dynamics. By further investigating this vision, through banking case studies, we have associated different kinds of risk management tools to different learning process logics (centralized or decentralized) : the choice of an instrumentational logic depends on the nature of the activity. From this study, emerged the concept of a learning tool (illustrated here by an aiding reasoning tool). This tool is fundamentally oriented towards the production of a decentralized learning process : to this reasoning support system, correspond staictural ownerships and specific uses. Similarly, the organization should take into account these aims of learning, especially through the definition of missions, collective work procedures and mechanisms of instigation. Carrying out this pattern of rationalization requires a network of "procedure" actors supporting the function of learning vectors. Finally, this pattern of rationalization (based upon a reasoning support tool) has been compared to other rationalizational approachs which aim the promotion of learning dynamics
Styles APA, Harvard, Vancouver, ISO, etc.
37

Renaux, Pierre. « Extraction d'informations à partir de documents juridiques : application à la contrefaçon de marques ». Caen, 2006. http://www.theses.fr/2006CAEN2019.

Texte intégral
Résumé :
Le cadre de nos recherches repose sur l'extraction et l'analyse de connaissances à partir d'une source de données documentaire de type juridique caractérisant les contrefaçons de marques nominatives. Cette discipline reflète parfaitement toutes les contraintes appartenant aux différents domaines intervenant dans le cadre de l'extraction de connaissances à partir de documents : document électronique, bases de données, statistiques, intelligence artificielle et interaction homme/machine. Cependant, les performances de ces méthodes sont étroitement liées à la qualité des données utilisées. Dans notre contexte de recherche, chaque décision est supervisée par un rédacteur (le magistrat) et dépend étroitement du contexte rédactionnel, limitant les procédés d'extraction d'information. Nous nous intéressons donc aux décisions susceptibles de biaiser l'apprentissage des documents. Nous observons les fondements de celles-ci, déterminons leur importance stratégique et le cas échéant nous proposons des solutions adaptées afin de réorienter le biais observé vers une meilleure représentation des documents. Nous proposons une approche exploratoire supervisée pour évaluer la qualité des données impliquées, en déterminant les propriétés biaisant la qualité de la connaissance établie ainsi qu'une plate-forme interactive et collaborative de modélisation des processus conduisant à l'extraction de connaissances afin d'intégrer efficacement le savoir-faire de l'expert
Our research framework focuses on the extraction and analysis of induced knowledge from legal corpus databases describing the nominative trade-mark infringement. This discipline deals with all the constraints arising from the different domains of knowledge discovery from documents: the electronic document, databases, statistics, artificial intelligence and human computer interaction. Meanwhile, the accuracy of these methods are closely linked with the quality of the data used. In our research framework, each decision is supervised by an author (the magistrate) and relies on a contextual writing environment, thus limiting the information extraction process. Here we are interesteding in decisions which direct the document learning process. We observe their surrounding, find their strategic capacity and offer adapted solutions in order to determine a better document representation. We suggest an explorative and supervised approach for calculating the data quality by finding properties which corrupt the knowledge quality. We have developped an interactive and collaborative platform for modelling all the processes concluding to the knowledge extraction in order to efficiently integrate the expert's know-how and practices
Styles APA, Harvard, Vancouver, ISO, etc.
38

Voerman, Joris. « Classification automatique à partir d’un flux de documents ». Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS025.

Texte intégral
Résumé :
Les documents administratifs sont aujourd’hui omniprésents dans notre quotidien. Nombreux et diversifiés, ils sont utilisés sous deux formes distinctes : physique ou numérique. La nécessité de passer du physique au numérique selon les situations entraîne des besoins dont le développement de solutions constitue un domaine de recherche actif notamment d’un point de vue industriel. Une fois un document scanné, l’un des premiers éléments à déterminer est le type, la classe ou la catégorie, permettant de faciliter toutes opérations ultérieures. Si la classification automatique est une opération disposant de nombreuses solutions dans l’état de l’art, la classification de documents, le fort déséquilibre au sein des données d’apprentissage et les contraintes industrielles restent trois difficultés majeures. Ce manuscrit se concentre sur la classification automatique par apprentissage de documents à partir de flux industriels en tentant de solutionner ces trois problèmes. Pour cela, il contient une évaluation de l’adaptation au contexte des méthodes préexistantes ; suivie d’une évaluation des solutions existantes permettant de renforcer les méthodes, ainsi que des combinaisons possibles. Il se termine par la proposition d’une méthode de combinaison de modèles sous la forme de cascade offrant une réponse progressive. Les solutions mises en avant sont d’un côté un réseau multimodal renforcé par un système d’attention assurant la classification d’une grande variété de documents. De l’autre, une cascade de trois réseaux complémentaires : un pour les images, un pour le texte et un pour les classes faiblement représentées. Ces deux options offrent des résultats solides autant dans un contexte idéal que dans un contexte déséquilibré. Dans le premier cas, il équivaut voire dépasse l’état de l’art. Dans le second, ils montrent une augmentation d’environ+6% de F0,5-Mesure par rapport à l’état de l’art
Administrative documents can be found everywhere today. They are numerous, diverse and can be of two types: physical and numerical. The need to switch between these two forms required the development of new solutions. After document digitization (mainly with a scanner), one of the first problems is to determine the type of the document, which will simplify all future processes. Automatic classification is a complex process that has multiple solutions in the state of the art. Therefore, the document classification, the imbalanced context and industrial constraints will heavily challenge these solutions. This thesis focuses on the automatic classification of document streams with research of solutions to the three major problems previously introduced. To this end, we first propose an evaluation of existing methods adaptation to document streams context. In addition, this work proposes an evaluation of state-of-the-art solutions to contextual constraints and possible combinations between them. Finally, we propose a new combination method that uses a cascade of systems to offer a gradual solution. The most effective solutions are, at first, a multimodal neural network reinforced by an attention model that is able to classify a great variety of documents. In second, a cascade of three complementary networks with : a one network for text classification, one for image classification and one for low represented classes. These two options provide good results as well in ideal context than in imbalanced context. In the first case, it challenges the state of the art. In the second case, it shows an improvement of +6% F0.5-Measure in comparison to the state of the art
Styles APA, Harvard, Vancouver, ISO, etc.
39

Pinelli, Nicolas. « Développer des compétences : une approche didactique à partir de la phénoménologie de l'imprévu appliquée aux événements artistiques ». Corte, 2010. https://tel.archives-ouvertes.fr/tel-00762527.

Texte intégral
Résumé :
Pour développer des compétences, cette approche didactique tente de retrouver des voies de passage des savoirs aux compétences. Pour cela, une démarche déductive installe un dialogue entre six modèles théoriques (pédagogie, didactique, formation, management, socioconstructivisme et cognitivisme). Parallèlement, une démarche inductive construit un modèle expérimental (comportements, stratégies et typologie situationnelle), soutenu par un diagnostic situationnel. Ce diagnostic évalue et repère des imprévus dans l'activité de travail, avec des paramètres situationnels (individus, faits, objets, lieux et moments). Ils sont classés en invariants, variables et prodromes, selon des critères d'existence, de récurrence, de concordance et de causalité. Ils agissent aussi comme des catalyseurs situationnels. La phénoménologie de l'imprévu analyse des situations, vécues par des professionnels et des étudiants, issues des événements artistiques (cirque, danse, musique et télévision). Elle va alors surprendre des flagrants délits d'ingérence. Trois concepts théoriques (procéduraI, ergologique et systémique) guident notre réflexion tout au long de cette double démarche. Les résultats de cette recherche s'appuient sur des observations, des entretiens et un questionnaire. Des voies de passage s'expriment à travers des liens statistiques de convergence, de divergence (modèle expérimental), de pertinence (modèles théoriques) et de cohérence (tous les modèles). Une congruence didactique complète cette relation entre des savoirs disponibles et des compétences prescrites. Il en ressort un modèle situationnel et didactique transférable dans un dispositif de formation et pour la prévention des risques socioprofessionnels
To develop skills, this didactic approach tries to find ways of passage of the knowledges in the competence. For that purpose, a deductive approach installs a dialogue between six theoretical models (pedagogy, didactics, formation, management, socio-constructivism and cognitivism). At the same time, an inductive approach builds an experimental model (behavior, strategies and typology situationnelle), supported by a situationnel diagnosis. This diagnosis estimates and locates unforeseen in the working activity, with situationals parameters (individuals, facts, objects, places and moments). They are classified in invariants, variables and prodromes, according to criteria of existence, recurrence, concordance and causality. They also act as situationnels catalysts. The phenomenology of the unforeseen analyzes the situations, lived by professionals and students, resulting from artistic events (circus, dance, music and television) and surprises flagrante delictos of inference. Three theoretical concepts (procedural, ergologique and systematism) direct our reflexion throughout this double approach. The results of this research leans on observations, conversations and a questionnaire. Ways of passage exist through statistical links of convergence, divergence (experimental model), relevance (theoretical models) and coherence (all the models). A didactic congruence completes this relation between available knowledges and prescribed competences. It comes out from it a situational model and transferable didactics in a device of formation and for the prevention of the socioprofessional risks
Styles APA, Harvard, Vancouver, ISO, etc.
40

Verstaevel, Nicolas. « Self-organization of robotic devices through demonstrations ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30060/document.

Texte intégral
Résumé :
La théorie des AMAS (Adaptive Multi-Agent Systems) propose de résoudre des problèmes complexes par auto-organisation pour lesquels aucune solution algorithmique n'est connue. Le comportement auto-organisateur des agents coopératifs permet au système de s'adapter à un environnement dynamique pour maintenir le système dans un état de fonctionnement adéquat. Dans cette thèse, cette approche a été appliquée au contrôle dans les systèmes ambiants, et plus particulièrement à la robotique de service. En effet, la robotique de service tend de plus en plus à s'intégrer à des environnements ambiants, on parle alors de robotique ambiante. Les systèmes ambiants présentent des caractéristiques, telles que l'ouverture et l'hétérogénéité, qui rendent la tâche de contrôle particulièrement complexe. Cette complexité est accrue si l'on prend en compte les besoins spécifiques, changeants et parfois contradictoires des utilisateurs. Les travaux de cette thèse proposent d'utiliser les principes de l'auto-organisation, pour concevoir un système multi-agent capable d'apprendre en temps réel à contrôler un système à partir des démonstrations faites par un tuteur. C'est l'apprentissage par démonstration. En observant l'activité de l'utilisateur et en apprenant le contexte dans lequel l'utilisateur agit, le système apprend une politique de contrôle pour satisfaire les utilisateurs. Nous proposons un nouveau paradigme de conception des systèmes robotiques sous le nom d'Extreme Sensitive Robotics. L'idée de base de ce paradigme est de distribuer le contrôle au sein des différentes fonctionnalités qui composent un système et de doter chacune de ces fonctionnalités de la capacité à s'adapter de manière autonome à son environnement. Pour évaluer l'apport de ce paradigme, nous avons conçu ALEX (Adaptive Learner by EXperiments), un système multi-agent adaptatif dont la fonction est d'apprendre, en milieux ambiants, à contrôler un dispositif robotique à partir de démonstrations. L'approche par AMAS permet la conception de logiciels à fonctionnalités émergentes. La solution à un problème émerge des interactions coopératives entre un ensemble d'agents autonomes, chaque agent ne possédant qu'une vue partielle de l'environnement. L'application de cette approche nous conduit à isoler les différents agents impliqués dans le problème du contrôle et à décrire leurs comportements locaux. Ensuite, nous identifions un ensemble de situations de non coopération susceptibles de nuire à leurs comportements et proposons un ensemble de mécanismes pour résoudre et anticiper ces situations. Les différentes expérimentations ont montré la capacité du système à apprendre en temps réel à partir de l'observation de l'activité de l'utilisateur et ont mis en évidence les apports, les limitations et les perspectives offertes par notre approche à la problématique du contrôle de systèmes ambiants
The AMAS (Adaptive Multi-Agent Systems) theory proposes to solve complex problems for which there is no known algorithmic solution by self-organization. The self-organizing behaviour of the cooperative agents enables the system to self-adapt to a dynamical environment to maintain the system in a functionality adequate state. In this thesis, we apply the theory to the problematic of control in ambient systems, and more particularly to service robotics. Service robotics is more and more taking part in ambient environment, we talk of ambient robotics. Ambient systems have challenging characteristics, such as openness and heterogeneity, which make the task of control particularly complex. This complexity is increased if we take into account the specific, changing and often contradictory needs of users. This thesis proposes to use the principle of self-organization to design a multi-agent system with the ability to learn in real-time to control a robotic device from demonstrations made by a tutor. We then talk of learning from demonstrations. By observing the activity of the users, and learning the context in which they act, the system learns a control policy allowing to satisfy users. Firstly, we propose a new paradigm to design robotic systems under the name Extreme Sensitive Robotics. The main proposal of this paradigm is to distribute the control inside the different functionalities which compose a system, and to give to each functionality the capacity to self-adapt to its environment. To evaluate the benefits of this paradigm, we designed ALEX (Adaptive Learner by Experiments), an Adaptive Multi-Agent System which learns to control a robotic device from demonstrations. The AMAS approach enables the design of software with emergent functionalities. The solution to a problem emerges from the cooperative interactions between a set of autonomous agents, each agent having only a partial perception of its environment. The application of this approach implies to isolate the different agents involved in the problem of control and to describe their local behaviour. Then, we identify a set of non-cooperative situations susceptible to disturb their normal behaviour, and propose a set of cooperation mechanisms to handle them. The different experimentations have shown the capacity of our system to learn in realtime from the observation of the activity of the user and have enable to highlight the benefits, limitations and perspectives offered by our approach to the problematic of control in ambient systems
Styles APA, Harvard, Vancouver, ISO, etc.
41

Turenne, Nicolas. « Apprentissage statistique pour l'extraction de concepts à partir de textes : application au filtrage d'informations textuelles ». Phd thesis, Université Louis Pasteur - Strasbourg I, 2000. http://tel.archives-ouvertes.fr/tel-00006210.

Texte intégral
Résumé :
Cette thèse présente un modèle de construction automatique et approximatif de la représentation du sens d'un texte. On adapte des techniques de documentation automatique à des bases documentaires non indexées. Les techniques classiques reposent sur une indexation vectorielle. Chaque document est représenté par un descripteur, on définit une distance entre ces descripteurs. L'accès aux documents pertinents est basé sur des calculs de proximité entre ces descripteurs. Une structuration du domaine, couvert par des documents, est obtenue par une classification (en anglais « clustering ») faisant apparaître des thèmes sémantiques. Il faut améliorer les techniques en leur permettant de traiter les documents non indexés, en améliorant les résultats par une adaptation de connaissances linguistiques et une analyse des relations que marquent les cooccurrences entre termes. La quantité grandissante d'informations électroniques permet de constituer des échantillons de données variés et significatifs. Les techniques pour décrire les relations entre termes sont issues de méthodes mathématiques usuellement appliquées aux données structurées non textuelles. Le couplage de connaissances propres aux données avec une méthodologie adaptée aux données textuelles devrait apporter une amélioration des résultats. Nous tentons de justifier : d'une part l'utilisation de mécanismes linguistiques réduisant les biais d'une statisque descriptive des occurrences d'un terme, d'autre part l'utilisation d'une méthode basée sur les graphes dont les motifs permettraient de récupérer les relations conceptuelles entre termes. Dans un troisième temps nous facilitons l'interprétation des résultats émanant de traitements automatiques par la qualification consensuelle du thème représenté par une classe. L'interprétation de classes reste difficile, due aux multiples points de vue qu'un lecteur peut se faire des associations entre termes. Des classes de meilleure qualité facilitent l'interprétation, assistée par un théssaurus, que l'on peut attribuer à la structuration conceptuelle des termes d'un domaine. Le développement d'Internet renforce l'échange de documents électroniques entre les acteurs de différents sites. Le développement de systèmes logiciels d'échanges de documents appelés « workflow » dans les intranets d'entreprise augmente la fluidité des documents entre individus et entre services. Un système qui permet d'apprendre automatiquement des profils d'utilisateur et d'exploiter ces connaissances pour distribuer l'information semble incontournable. Nous essayons de caractériser un centre d'intérêt par des classes de termes.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Pomorski, Denis. « Apprentissage automatique symbolique/numérique : construction et évaluation d'un ensemble de règles à partir des données ». Lille 1, 1991. http://www.theses.fr/1991LIL10117.

Texte intégral
Résumé :
Ce travail s'inscrit dans le cadre du thème : Analyse et Surveillance des Processus Industriels Complexes, développé au Laboratoire d'Automatique et d'Information Industrielle de Lille (LAIL-URA 1440). Nous considérons des systèmes pour lesquels aucun modèle de comportement n'est disponible. Leur surveillance passe alors par l'établissement d'un modèle statistique, élaboré à partir de l'analyse des données relevées sur le processus. Après avoir présenté deux systèmes (ID3 et INDUCE) très utilisés en apprentissage, nous caractérisons les propriétés (cohérence, complétude. . . ) d'un ensemble de règles obtenues par une procédure d'apprentissage, et nous proposons des critères permettant d'évaluer ces règles. Nous distinguons deux procédures de construction de règles plus générales: l'agrégation et le prolongement. Nous donnons, pour ces deux cas, des moyens d'évaluation des résultats obtenus reposant sur différentes hypothèses (monde clos, non contradiction, continuité). Nous proposons dès lors la construction d'un modèle explicatif par généralisation des règles constituant le modèle atomique (représentant le comportement déterministe du processus). Nous développons des méthodes d'induction utilisant une représentation globale (construction de partitions) basées sur un critère entropique (issu de la théorie de l'information), et une représentation locale (prise en compte de parties)
Styles APA, Harvard, Vancouver, ISO, etc.
43

Buchet, Samuel. « Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell ». Thesis, Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0011.

Texte intégral
Résumé :
La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesureest difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique. Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies
The understanding of cellular mechanisms occurring inside human beings usually depends on the study of its gene expression.However, genes are implied in complex regulatory processes and their measurement is difficult to perform. In this context, the qualitative modeling of gene regulatory networks intends to establish the function of each gene from the discrete modeling of a dynamical interaction network. In this thesis, our goal is to implement this modeling approach from single-cell sequencing data. These data prove to be interesting for qualitative modeling since they bring high precision, and they can be interpreted in a dynamical way. Thus, we develop a method for the inference of qualitative models based on the automatic learning of logic programs. This method is applied on a single-cell dataset, and we propose several approaches to interpret the resulting models by comparing them with existing knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
44

Turenne, Nicolas. « Apprentissage statistique pour l'extraction de concepts a partir de textes. Application au filtrage d'informations textuelles ». Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13159.

Texte intégral
Résumé :
Cette these presente un modele de construction automatique et approximatif de la representation du sens d'un texte. Une structuration du domaine, couvert par des documents, est obtenue par une classification (en anglais clustering ) faisant apparaitre des themes semantiques. Il faut ameliorer les techniques en leur permettant de traiter les documents non indexes, en ameliorant les resultats par une adaptation de connaissances linguistiques et une analyse des relations que marquent les cooccurrences entre termes. La quantite grandissante d'informations electroniques permet de constituer des echantillons de donnees varies et significatifs. Les techniques pour decrire les relations entre termes sont issues de methodes mathematiques usuellement appliquees aux donnees structurees non textuelles. Le couplage de connaissances propres aux donnees avec une methodologie adaptee aux donnees textuelles devrait apporter une amelioration des resultats. Nous tentons de justifier : d'une part l'utilisation de mecanismes linguistiques reduisant les biais d'une statistique descriptive des occurrences d'un terme, d'autre part l'utilisation d'une methode basee sur les graphes dont les motifs permettraient de recuperer les relations conceptuelles entre termes. Dans un troisieme temps nous facilitons l'interpretation de resultats emanant de traitements automatiques par la qualification consensuelle du theme represente par une classe. L'interpretation de classes reste difficile, due aux multiples points de vue qu'un lecteur peut se faire des associations entre termes. Des classes de meilleure qualite facilitent l'interpretation, assistee par un thesaurus, que l'on peut attribuer a la structuration conceptuelle des termes d'un domaine. Le developpement
Styles APA, Harvard, Vancouver, ISO, etc.
45

Guillouet, Brendan. « Apprentissage statistique : application au trafic routier à partir de données structurées et aux données massives ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30205/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'apprentissage pour données massives. On considère en premier lieu, des trajectoires définies par des séquences de géolocalisations. Une nouvelle mesure de distance entre trajectoires (Symmetrized Segment-Path Distance) permet d'identifier par classification hiérarchique des groupes de trajectoires, modélisés ensuite par des mélanges gaussiens décrivant les déplacements par zones. Cette modélisation est utilisée de façon générique pour résoudre plusieurs types de problèmes liés aux trafic routier : prévision de la destination finale d'une trajectoire, temps d'arrivée à destination, prochaine zone de localisation. Les exemples analysés montrent que le modèle proposé s'applique à des environnements routiers différents et, qu'une fois appris, il s'applique à des trajectoires aux propriétés spatiales et temporelles différentes. En deuxième lieu, les environnements technologiques d'apprentissage pour données massives sont comparés sur des cas d'usage industriels
This thesis focuses on machine learning techniques for application to big data. We first consider trajectories defined as sequences of geolocalized data. A hierarchical clustering is then applied on a new distance between trajectories (Symmetrized Segment-Path Distance) producing groups of trajectories which are then modeled with Gaussian mixture in order to describe individual movements. This modeling can be used in a generic way in order to resolve the following problems for road traffic : final destination, trip time or next location predictions. These examples show that our model can be applied to different traffic environments and that, once learned, can be applied to trajectories whose spatial and temporal characteristics are different. We also produce comparisons between different technologies which enable the application of machine learning methods on massive volumes of data
Styles APA, Harvard, Vancouver, ISO, etc.
46

Bouguelia, Mohamed-Rafik. « Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain ». Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034/document.

Texte intégral
Résumé :
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
Styles APA, Harvard, Vancouver, ISO, etc.
47

Ramadier, Lionel. « Indexation et apprentissage de termes et de relations à partir de comptes rendus de radiologie ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT298/document.

Texte intégral
Résumé :
Dans le domaine médical, l'informatisation des professions de santé et le développement du dossier médical personnel (DMP) entraîne une progression rapide du volume d'information médicale numérique. Le besoin de convertir et de manipuler toute ces informations sous une forme structurée constitue un enjeu majeur. C'est le point de départ de la mise au point d'outils d'interrogation appropriés pour lesquels, les méthodes issues du traitement automatique du langage naturel (TALN) semblent bien adaptées. Les travaux de cette thèse s'inscrivent dans le domaine de l'analyse de documents médicaux et traitent de la problématique de la représentation de l'information biomédicale (en particulier du domaine radiologique) et de son accès. Nous proposons de construire une base de connaissance dédiée à la radiologie à l'intérieur d'une base de connaissance générale (réseau lexico-sémantique JeuxDeMots). Nous montrons l'intérêt de l'hypothèse de non séparation entre les différents types de connaissances dans le cadre d'une analyse de documents. Cette hypothèse est que l'utilisation de connaissances générales, en plus de celles de spécialités, permet d'améliorer significativement l'analyse de documents médicaux.Au niveau du réseau lexico-sémantique, l'ajout manuel et automatisé des méta-informations sur les annotations (informations fréquentielles, de pertinences, etc) est particulièrement utile. Ce réseau combine poids et annotations sur des relations typées entre des termes et des concepts ainsi qu'un mécanisme d'inférence dont l'objet est d'améliorer la qualité et la couverture du réseau. Nous décrivons comment à partir d'informations sémantiques présentes dans le réseau, il est possible de définir une augmentation des index bruts construits pour chaque comptes rendus afin d'améliorer la recherche documentaire. Nous présentons, ensuite, une méthode d'extraction de relations sémantiques entre des termes ou concepts. Cette extraction est réalisée à l'aide de patrons linguistiques auxquels nous avons rajouté des contraintes sémantiques.Les résultats des évaluations montrent que l'hypothèse de non séparation entre les différents types de connaissances améliorent la pertinence de l'indexation. L'augmentation d'index permet une amélioration du rappel alors que les contraintes sémantiques améliorent la précision de l'extraction de relations
In the medical field, the computerization of health professions and development of the personal medical file (DMP) results in a fast increase in the volume of medical digital information. The need to convert and manipulate all this information in a structured form is a major challenge. This is the starting point for the development of appropriate tools where the methods from the natural language processing (NLP) seem well suited.The work of this thesis are within the field of analysis of medical documents and address the issue of representation of biomedical information (especially the radiology area) and its access. We propose to build a knowledge base dedicated to radiology within a general knowledge base (lexical-semantic network JeuxDeMots). We show the interest of the hypothesis of no separation between different types of knowledge through a document analysis. This hypothesis is that the use of general knowledge, in addition to those specialties, significantly improves the analysis of medical documents.At the level of lexical-semantic network, manual and automated addition of meta information on annotations (frequency information, pertinence, etc.) is particularly useful. This network combines weight and annotations on typed relationships between terms and concepts as well as an inference mechanism which aims to improve quality and network coverage. We describe how from semantic information in the network, it is possible to define an increase in gross index built for each records to improve information retrieval. We present then a method of extracting semantic relationships between terms or concepts. This extraction is performed using lexical patterns to which we added semantic constraints.The results show that the hypothesis of no separation between different types of knowledge to improve the relevance of indexing. The index increase results in an improved return while semantic constraints improve the accuracy of the relationship extraction
Styles APA, Harvard, Vancouver, ISO, etc.
48

Pouget, Maël. « Synthèse incrémentale de la parole à partir du texte ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT008/document.

Texte intégral
Résumé :
Ce travail de thèse porte sur un nouveau paradigme pour la synthèse de la parole à partir du texte, à savoir la synthèse incrémentale. L'objectif est de délivrer la parole de synthèse au fur et à mesure de la saisie du texte par l'utilisateur, contrairement aux systèmes classiques pour lesquels la synthèse est déclenchée après la saisie d'une ou plusieurs phrases. L'application principale visée est l'aide aux personnes présentant un trouble sévère de la communication orale, et communiquant principalement à l'aide d'un synthétiseur vocal. Un synthétiseur vocal incrémental permettrait de fluidifier une conversation en limitant le temps que passe l'interlocuteur à attendre la fin de la saisie de la phrase à synthétiser. Un des défi que pose ce paradigme est la synthèse d'un mot ou d'un groupe de mot avec une qualité segmentale et prosodique acceptable alors que la phrase qui le contient n'est que partiellement connue au moment de la synthèse. Pour ce faire, nous proposons différentes adaptations des deux principaux modules d'un système de synthèse de parole à partir du texte : le module de traitement automatique de la langue naturelle (TAL) et le module de synthèse sonore. Pour le TAL en synthèse incrémentale, nous nous sommes intéressé à l'analyse morpho-syntaxique, qui est une étape décisive pour la phonétisation et la détermination de la prosodie cible. Nous décrivons un algorithme d'analyse morpho-syntaxique dit "à latence adaptative". Ce dernier estime en ligne si une classe lexicale (estimée à l'aide d'un analyseur morpho-syntaxique standard basé sur l'approche n-gram), est susceptible de changer après l'ajout par l'utilisateur d'un ou plusieurs mots. Si la classe est jugée instable, alors la synthèse sonore est retardée, dans le cas contraire, elle peut s'effectuer sans risque a priori de dégrader de la qualité segmentale et suprasegmentale. Cet algorithme exploite une ensemble d'arbre de décisions binaires dont les paramètres sont estimés par apprentissage automatique sur un large corpus de texte. Cette méthode nous permet de réaliser un étiquetage morpho-syntaxique en contexte incrémental avec une précision de 92,5% pour une latence moyenne de 1,4 mots. Pour la synthèse sonore, nous nous plaçons dans le cadre de la synthèse paramétrique statistique, basée sur les modèles de Markov cachés (Hidden Markov Models, HMM). Nous proposons une méthode de construction de la voix de synthèse (estimation des paramètres de modèles HMM) prenant en compte une éventuelle incertitude sur la valeur de certains descripteurs contextuels qui ne peuvent pas être calculés en synthèse incrémentale (c'est-à-dire ceux qui portent sur les mots qui ne sont pas encore saisis au moment de la synthèse).Nous comparons la méthode proposée à deux autres stratégies décrites dans la littérature. Les résultats des évaluations objectives et perceptives montrent l’intérêt de la méthode proposée pour la langue française. Enfin, nous décrivons un prototype complet qui combine les deux méthodes proposées pour le TAL et la synthèse par HMM incrémentale. Une évaluation perceptive de la pertinence et de la qualité des groupes de mots synthétisés au fur et à mesure de la saisie montre que notre système réalise un compromis acceptable entre réactivité (minimisation du temps entre la saisie d'un mot et sa synthèse) et qualité (segmentale et prosodique) de la parole de synthèse
In this thesis, we investigate a new paradigm for text-to-speech synthesis (TTS) allowing to deliver synthetic speech while the text is being inputted : incremental text-to-speech synthesis. Contrary to conventional TTS systems, that trigger the synthesis after a whole sentence has been typed down, incremental TTS devices deliver speech in a ``piece-meal'' fashion (i.e. word after word) while aiming at preserving the speech quality achievable by conventional TTS systems.By reducing the waiting time between two speech outputs while maintaining a good speech quality, such a system should improve the quality of the interaction for speech-impaired people using TTS devices to express themselves.The main challenge brought by incremental TTS is the synthesis of a word, or of a group of words, with the same segmental and supra-segmental quality as conventional TTS, but without knowing the end of the sentence to be synthesized. In this thesis, we propose to adapt the two main modules (natural language processing and speech synthesis) of a TTS system to the incremental paradigm.For the natural language processing module, we focused on part-of-speech tagging, which is a key step for phonetization and prosody generation. We propose an ``adaptive latency algorithm'' for part-of-speech tagging, that estimates if the inferred part-of-speech for a given word (based on the n-gram approach) is likely to change when adding one or several words. If the Part-of-speech is considered as likely to change, the synthesis of the word is delayed. In the other case, the word may be synthesized without risking to alter the segmental or supra-segmental quality of the synthetic speech. The proposed method is based on a set of binary decision trees trained over a large corpus of text. We achieve 92.5% precision for the incremental part-of-speech tagging task and a mean delay of 1.4 words.For the speech synthesis module, in the context of HMM-based speech synthesis, we propose a training method that takes into account the uncertainty about contextual features that cannot be computed at synthesis time (namely, contextual features related to the following words). We compare the proposed method to other strategies (baselines) described in the literature. Objective and subjective evaluation show that the proposed method outperforms the baselines for French.Finally, we describe a prototype developed during this thesis implementing the proposed solution for incremental part-of-speech tagging and speech synthesis. A perceptive evaluation of the word grouping derived from the proposed adaptive latency algorithm as well as the segmental quality of the synthetic speech tends to show that our system reaches a good trade-off between reactivity (minimizing the waiting time between the input and the synthesis of a word) and speech quality (both at segmental and supra-segmental levels)
Styles APA, Harvard, Vancouver, ISO, etc.
49

Nicolini, Claire. « Apprentissage et raisonnement à partir de cas pour l'aide au diagnostic de pannes dans une installation nucléaire ». Dijon, 1998. http://www.theses.fr/1998DIJOS030.

Texte intégral
Résumé :
L'objectif de cette thèse est de concevoir un système d'aide au diagnostic de pannes dans une installation nucléaire du commissariat à l’énergie atomique (CEA). Le système de supervision existant permet d'optimiser les procédés de fabrication en fonctionnement normal. Lors de dysfonctionnements, les alarmes, gérées par seuillage, n'apportent pas d'information pertinente. Pour augmenter la fiabilité, la sûreté et la sécurité des installations, l’opérateur humain a besoin d’être assisté par un système de diagnostic de pannes. Le système que nous avons développé, secapi, combine des techniques de résolution de problèmes et des techniques d'apprentissage automatique qui lui permettent de diagnostiquer et de modéliser les différents types de pannes pouvant survenir sur l'installation. Secapi traite des connaissances exprimées en logique des prédicats du premier ordre. Son principe de raisonnement est base sur des techniques de raisonnement à partir de règles (rapr) et de raisonnement à partir de cas (rapc). Le rapr, basé sur la sld-resolution permet de déduire de nouvelles connaissances a partir d'un ensemble de règles. Le rapc traite des connaissances expérimentales, il s'appuie sur un problème passé pour résoudre un nouveau problème. Secapi est doté d'un module d'apprentissage qui permet d'extraire des connaissances relatives aux pannes, et ainsi de modéliser les différents types de dysfonctionnements. Pour cela, il utilise la programmation logique inductive (PLI) qui permet d'induire un modèle général d'un concept à partir d'un ensemble d'exemples et de contre-exemples de ce concept. Secapi a été appliqué en milieu industriel, sur une chaîne de traitement de tritium radioactif au CEA. Secapi a été confronté à des simulations de pannes décrites par un volume de données très important. Il a permis de diagnostiquer des dysfonctionnements similaires à certains déjà rencontrés, et d'apprendre des modèles de pannes, réutilisables pour de futurs diagnostics.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Bichindaritz, Isabelle. « Apprentissage de concepts dans une mémoire dynamique : raisonnement à partir de cas adaptable à la tâche cognitive ». Paris 5, 1994. http://www.theses.fr/1994PA05S004.

Texte intégral
Résumé :
Le but de cette thèse est de concevoir et réaliser un système de raisonnement à partir de cas adaptable à la tâche cognitive. Le premier chapitre analyse l'émergence du raisonnement à partir de cas, à travers les travaux de Schank, son évolution et sa problématique. Cette méthodologie conçoit des mémoires pour raisonner. Le deuxième chapitre étudie l'apprentissage à partir de cas, qui est un apprentissage suivant la mémoire avant d'être un apprentissage suivant les inférences et en propose une classification. Le troisième chapitre présente l'approche formelle utilisée par le système. Sa principale qualité est qu'il apprend incrémentalement des concepts au cours de son raisonnement. Partageant le paradigme de l'analogie, il est capable de réaliser plusieurs tâches cognitives, modélisées dans le point de vue. L'organisation de la mémoire du système, indexée suivant plusieurs points de vue, et sa composition, à la fois des cas et des concepts, lui permettent de réaliser aussi bien des tâches analytiques (résolution de problèmes) que des tâches synthétiques (aide à la recherche). La mémoire contient également des connaissances théoriques, grâce auxquelles il génère des explications de ses résultats. Les derniers chapitres présentent une application complexe à l'expertise clinique des troubles du comportement alimentaire en psychiatrie et une validation du système. Ses capacités de raisonnement et d'explication concernant le diagnostic, le traitement et la recherche clinique sont intéressantes.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie