To see the other types of publications on this topic, follow the link: Système en apprentissage automatique.

Dissertations / Theses on the topic 'Système en apprentissage automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système en apprentissage automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Burg, Bernard. "Apprentissage de règles de comportement destinées au contrôle d'un système." Paris 11, 1988. http://www.theses.fr/1988PA112375.

Full text
Abstract:
Les systèmes de contrôle de processus sont confrontés à des applications de plus en plus complexes à appréhender. Il semble intéressant, par exemple dans le cadre de l'étude des phénomènes mal ou peu modélisés, d'avoir recours à des techniques d'informatique symbolique pour profiter de leur souplesse d'utilisation. Ainsi fut développé un système de contrôle de processus à base de règles de comportement, la principale difficulté consiste alors à acquérir ces règles. Sa résolution a nécessité l'utilisation conjointe de plusieurs techniques, respectivement les techniques numériques d'analyses de données pour débruiter et réduire la dimensionnalité de l'espace d'états, puis des techniques structurelles pour transcrire l'aspect temporel, modéliser les structures sous-jacentes et finalement des techniques d'apprentissage symbolique automatique pour trouver des regroupements conceptuels, généraliser et extrapoler les connaissances acquises. L'ensemble de ces techniques est mis en œuvre par des techniques d'intelligence artificielle analysant les résultats de chaque phase grâce à des critères généraux décrivant conceptuellement chaque technique, ses résultats escomptés et génère des plans d'actions pour guider l'apprentissage. Trois techniques d'apprentissage sont utilisées : la première part de points de mesure du phénomène qu'elle utilise dans une démarche inductive, elle confère une notion de complétude au jeu de règles. La seconde part d'un modèle flou du phénomène à contrôler qu'elle met en œuvre dans un apprentissage déductif, elle apporte la cohérence en intégrant les connaissances des experts. Enfin, les règles de comportement issues de ces approches sont utilisées et affinées dans un apprentissage en interaction avec l'environnement. Le programme CANDIDE a vu deux domaines d'application : le contrôle en vitesse d'un moteur en courant continu et la conduite automobile
Process control systems have to face applications which are always more ambitions and difficult to master. In some cases it is not easy to use conventional process control techniques. With the introduction of declarative methods it is possible to start in a pragmatic way and to set an implicit formulation of the problem when no explicit formulation is available. New mechanisms can be envisioned, and we conceived a rule based controller, then the difficulty remains on the design of the rule sets. To overcome this problem, we had to use jointly some learning techniques, such as data analysis to cope with noisy data and to project them into reduced space representations. Then structural techniques allow to modelise the temporal evolution of the process control and the hidden structures. Finally, artificial intelligence machine learning techniques discover the concepts and generalise the acquired knowledge. The whole technique set is supervised by artificial intelligence, it analyses the results issued from each learning step and planes the next action to perform. Three learning strategies are used: the first one starts from the data and uses inductive learning, it proves some completeness. The second one begins with a fuzzy model and acquires rules by deduction, it brings coherency via expert knowledge. Finally the behavior rules are used and refined by means of interaction with the environment. The learning program CANDIDE performed two case studies - the speed control of a DC motor the automatic driving of a car
APA, Harvard, Vancouver, ISO, and other styles
2

Robineau, Pierre. "Vers un système d'apprentissage symbolique flexible et compréhensible pour une aide à la découverte de connaissances." Avignon, 1995. http://www.theses.fr/1995AVIG0111.

Full text
Abstract:
Nous nous interessons a l'emploi de techniques d'apprentissage symbolique automatique (asa) pour decouvrir des regularites dans une base de connaissances. Nous voulons que ce travail puisse etre effectue par d'autres personnes que des specialistes d'asa. Ceci nous amene a formuler deux proprietes que doivent verifier des systemes repondant a de telles exigences : ils sont flexibles, c'est-a-dire que leur biais est modifiable par l'utilisateur sans programmation explicite, et comprehensibles dans leurs raisonnements et leurs resultats. Nous proposons une architecture qui, par l'utilisation conjointe d'outils generiques et de programmation par demonstration, atteint ces deux objectifs. Nous decrivons deux algorithmes generiques originaux de generalisation et de reformulation sur des descriptions structurelles entrant dans le cadre de cette architecture. Chacun d'eux, par simple configuration de ses parametres generiques qui sont des fonctions, permet de retrouver des methodes connues, l'un de generalisation, l'autre de reformulation. Nous exposons egalement une nouvelle methode de programmation par demonstration. Par une interaction avec l'utilisateur, elle permet de produire inductivement des programmes prolog a partir d'exemples de resolution de taches. Nous presentons casa, un prototype de systeme d'asa flexible et comprehensible, qui regroupe l'ensemble de ces propositions et y ajoute quelques fonctionnalites supplementaires comme des outils de gestion d'une base de connaissances
APA, Harvard, Vancouver, ISO, and other styles
3

Lin, Shiuan-Sung. "Optimisation du graphe de décodage d'un système de reconnaissance vocale par apprentissage discriminant." Paris, ENST, 2007. http://www.theses.fr/2007ENST0006.

Full text
Abstract:
Les trois sources principalement utilisées en reconnaissance vocale automatique (Automatic Speech Recognition, ASR) sont les modèles acoustiques, le dictionnaire et le modèle de langage. Elles sont habituellement conçues et optimisées de manière séparée. Notre travail a proposé une méthodologie, à savoir un apprentissage discriminant sur un grand graphe de décodage, pour optimiser conjointement les paramètres de ces différents modèles, en se fondant sur l'intégration des ressources dans un transducteur fini pondéré dont les poids des transitions sont estimés par de manière discriminante. Dans ce cadre d'apprentissage, les paramètres du modèle sont ajustés itérativement de façon à réduire progressivement le nombre d'erreurs de retranscription commises par le système. Nous considérons en particulier dans ce travail de mettre en oeuvre ce cadre d'apprentissage pour une tâche de reconnaissance à « grand vocabulaire » : la transcription automatique des nouvelles de la radio française. Nous proposons plusieurs techniques pour un accélérer les algorithmes de décodage, afin de rendre ce type d'apprentissage computationnellement faisable. Une série d'expériences conduites sur cette tâche montrent qu'une réduction de 1 point du taux d'erreur de retranscription peut être obtenu, démontrant que cette méthodologie d'apprentissage permet d'améliorer les performances des systèmes de reconnaissance. Diverses extensions de cette méthode seront finalement présentées et discutées
The three main knowledge sources used in the automatic speech recognition (ASR), namely the acoustic models, a dictionary and a language model, are usually designed and optimized in isolation. Our previous work proposed a methodology for jointly tuning these parameters, based on the integration of the resources as a finite-state graph, whose transition weights are trained discriminatively. In this training framework, parameter optimization is performed on a static decoding graph, whose transition weights are iteratively adjusted. We extend our previous work to a much more complex large-vocabulary task: French radio broadcast news database (ESTER). We also propose several fast decoding techniques to make the training practical. Experiments show that a reduction of 1% absolute of word error rate (WER) can be obtained, demonstrating the effectiveness of this training framework. In addition, we also investigate the strengths and shortcomings of this approach and discuss the new directions it opens
APA, Harvard, Vancouver, ISO, and other styles
4

Hoet, Shirley. "Apprentissage de la communication dans un système multi-agents ouvert, asynchrone et faiblement couplé." Paris 6, 2012. http://www.theses.fr/2012PA066511.

Full text
Abstract:
Dans un système multi-agents, la communication directe permet aux agents, via l’envoi de messages structurés, d’échanger des informations, de déléguer des tâches ou de négocier. Dans les travaux actuels, il est généralement supposé que l’agent connaît la nature des messages qu’il doit envoyer ainsi que le moment où les envoyer. Mais si l’on se place dans les systèmes multi-agents ouverts et faiblement couplés, cette hypothèse n’est plus valide : les agents ne se « connaissant » pas, ils ne peuvent déterminer à l’avance quels messages s’envoyer. L’objectif de cette thèse est par conséquent de définir des mécanismes pour permettre aux agents d’apprendre à communiquer avec les autres agents, en fonction de leurs objectifs et des changements perçus dans le systèmeNous présentons tout d'abord un algorithme d’exploration couplé à un protocole multi-agents permettant à un agent de construire le contenu de ses messages. Ensuite, nous présentons un mécanisme d’apprentissage par renforcement couplé à une mémoire permettant à un agent de déterminer s' il doit ou non communiquer et dans ce cas quel message il doit envoyer. Suite à l’évaluation de notre algorithme d’apprentissage, nous avons mis en évidence des problèmes que nous imputons à l’utilisation d’une mémoire qui n’est pas spécifique à la communication. C'est pourquoi nous proposons un nouveau modèle de mémoire spécifique à l’apprentissage de la communication. Enfin, nous proposons un mécanisme permettant d’extraire le modèle des actes de communication, c’est-à-dire les préconditions et les effets attendus des messages d'un agent. Afin qu'il puisse les utiliser dans de nouveaux contextes
In a Multi-Agent System (MAS) , direct communication allows agents to exchange information, delegate tasks or negotiate by sending structured messages. In current approaches, it is generally assumed that agents know the content and recipients of the messages it has to send, and the moment in time when it should send it. However, in open and loosely coupled MAS, this hypothesis is no longer valid : agents to not "know" each other and cannot determine in advance what message to send, when and to whom. The goal of this PhD thesis is to define mechanisms for agents to learn how to communicate with other agents, based on their own goals and changes perceived in the system. First, we present an exploration algorithm coupled with a multi-agent protocol that allows agents to build the content of their messages. Second, we present a reinforcement learning mechanism that allows an agent to decide when it must communicate and what message it must send. Our algorithm is based on using a memory in which the agent can store its beliefs and the communication acts it has used. The evaluation ofour learning algorithm showed problems that come from using a general-purpose memory structure. This impacts our learning mechanism by creating a too large set of states for the algorithm to workThat is why we present a new model of memory for communication learning based on storing dates and message answers. Last, we propose a mechanism that allows the agent to build a model of communication acts, i. E. The preconditions it must satisfy to send the message and a description of the expected effects of this message on the system
APA, Harvard, Vancouver, ISO, and other styles
5

Ferreira, Emmanuel. "Apprentissage automatique en ligne pour un dialogue homme-machine situé." Thesis, Avignon, 2015. http://www.theses.fr/2015AVIG0206/document.

Full text
Abstract:
Un système de dialogue permet de doter la Machine de la capacité d'interagir de façon naturelle et efficace avec l'Homme. Dans cette thèse nous nous intéressons au développement d'un système de dialogue reposant sur des approches statistiques, et en particulier du cadre formel des Processus Décisionnel de Markov Partiellement Observable, en anglais Partially Observable Markov Decision Process (POMDP), qui à ce jour fait office de référence dans la littérature en ce qui concerne la gestion statistique du dialogue. Ce modèle permet à la fois une prise en compte améliorée de l'incertitude inhérente au traitement des données en provenance de l'utilisateur (notamment la parole) et aussi l'optimisation automatique de la politique d'interaction à partir de données grâce à l'apprentissage par renforcement, en anglais Reinforcement Learning (RL). Cependant, une des problématiques liées aux approches statistiques est qu'elles nécessitent le recours à une grande quantité de données d'apprentissage pour atteindre des niveaux de performances acceptables. Or, la collecte de telles données est un processus long et coûteux qui nécessite généralement, pour le cas du dialogue, la réalisation de prototypes fonctionnels avec l'intervention d'experts et/ou le développement de solution alternative comme le recours à la simulation d'utilisateurs. En effet, très peu de travaux considèrent à ce jour la possibilité d'un apprentissage de la stratégie de la Machine de part sa mise en situation de zéro (sans apprentissage préalable) face à de vrais utilisateurs. Pourtant cette solution présente un grand intérêt, elle permet par exemple d'inscrire le processus d'apprentissage comme une partie intégrante du cycle de vie d'un système lui offrant la capacité de s'adapter à de nouvelles conditions de façon dynamique et continue. Dans cette thèse, nous nous attacherons donc à apporter des solutions visant à rendre possible ce démarrage à froid du système mais aussi, à améliorer sa capacité à s'adapter à de nouvelles conditions (extension de domaine, changement d'utilisateur,...). Pour ce faire, nous envisagerons dans un premier temps l'utilisation de l'expertise du domaine (règles expertes) pour guider l'apprentissage initial de la politique d'interaction du système. De même, nous étudierons l'impact de la prise en compte de jugements subjectifs émis par l'utilisateur au fil de l'interaction dans l'apprentissage, notamment dans un contexte de changement de profil d'utilisateur où la politique préalablement apprise doit alors pouvoir s'adapter à de nouvelles conditions. Les résultats obtenus sur une tâche de référence montrent la possibilité d'apprendre une politique (quasi-)optimale en quelques centaines d'interactions, mais aussi que les informations supplémentaires considérées dans nos propositions sont à même d'accélérer significativement l'apprentissage et d'améliorer la tolérance aux bruits dans la chaîne de traitement. Dans un second temps nous nous intéresserons à réduire les coûts de développement d'un module de compréhension de la parole utilisé dans l'étiquetage sémantique d'un tour de dialogue. Pour cela, nous exploiterons les récentes avancées dans les techniques de projection des mots dans des espaces vectoriels continus conservant les propriétés syntactiques et sémantiques, pour généraliser à partir des connaissances initiales limitées de la tâche pour comprendre l'utilisateur. Nous nous attacherons aussi à proposer des solutions afin d'enrichir dynamiquement cette connaissance et étudier le rapport de cette technique avec les méthodes statistiques état de l'art. Là encore nos résultats expérimentaux montrent qu'il est possible d'atteindre des performances état de l'art avec très peu de données et de raffiner ces modèles ensuite avec des retours utilisateurs dont le coût peut lui-même être optimisé
A dialogue system should give the machine the ability to interactnaturally and efficiently with humans. In this thesis, we focus on theissue of the development of stochastic dialogue systems. Thus, we especiallyconsider the Partially Observable Markov Decision Process (POMDP)framework which yields state-of-the-art performance on goal-oriented dialoguemanagement tasks. This model enables the system to cope with thecommunication ambiguities due to noisy channel and also to optimize itsdialogue management strategy directly from data with Reinforcement Learning (RL)methods.Considering statistical approaches often requires the availability of alarge amount of training data to reach good performance. However, corpora of interest are seldom readily available and collectingsuch data is both time consuming and expensive. For instance, it mayrequire a working prototype to initiate preliminary experiments with thesupport of expert users or to consider other alternatives such as usersimulation techniques.Very few studies to date have considered learning a dialogue strategyfrom scratch by interacting with real users, yet this solution is ofgreat interest. Indeed, considering the learning process as part of thelife cycle of a system offers a principle framework to dynamically adaptthe system to new conditions in an online and seamless fashion.In this thesis, we endeavour to provide solutions to make possible thisdialogue system cold start (nearly from scratch) but also to improve its ability to adapt to new conditions in operation (domain extension, new user profile, etc.).First, we investigate the conditions under which initial expertknowledge (such as expert rules) can be used to accelerate the policyoptimization of a learning agent. Similarly, we study how polarized userappraisals gathered throughout the course of the interaction can beintegrated into a reinforcement learning-based dialogue manager. Morespecifically, we discuss how this information can be cast intosocially-inspired rewards to speed up the policy optimisation for bothefficient task completion and user adaptation in an online learning setting.The results obtained on a reference task demonstrate that a(quasi-)optimal policy can be learnt in just a few hundred dialogues,but also that the considered additional information is able tosignificantly accelerate the learning as well as improving the noise tolerance.Second, we focus on reducing the development cost of the spoken language understanding module. For this, we exploit recent word embedding models(projection of words in a continuous vector space representing syntacticand semantic properties) to generalize from a limited initial knowledgeabout the dialogue task to enable the machine to instantly understandthe user utterances. We also propose to dynamically enrich thisknowledge with both active learning techniques and state-of-the-artstatistical methods. Our experimental results show that state-of-the-artperformance can be obtained with a very limited amount of in-domain andin-context data. We also show that we are able to refine the proposedmodel by exploiting user returns about the system outputs as well as tooptimize our adaptive learning with an adversarial bandit algorithm tosuccessfully balance the trade-off between user effort and moduleperformance.Finally, we study how the physical embodiment of a dialogue system in a humanoid robot can help the interaction in a dedicated Human-Robotapplication where dialogue system learning and testing are carried outwith real users. Indeed, in this thesis we propose an extension of thepreviously considered decision-making techniques to be able to take intoaccount the robot's awareness of the users' belief (perspective taking)in a RL-based situated dialogue management optimisation procedure
APA, Harvard, Vancouver, ISO, and other styles
6

Ramdani, Mohammed. "Système d'induction formelle à base de connaissances imprécises." Paris 6, 1994. http://www.theses.fr/1994PA066237.

Full text
Abstract:
Notre thème de recherche traite de l'incertitude et l’imprécision dans les systèmes d'apprentissage symbolique numérique Les ensembles de données qui sont utilisés comme base d'exemples pour les systèmes d'apprentissage classiques (machine learning), sont souvent décrits par des attributs qui ont des valeurs numériques continues. Beaucoup d'algorithmes sont capables de traiter ces types d'attributs sans faire référence aux connaissances du domaine. Dans nos travaux nous utilisons les connaissances du domaine pour améliorer la qualité d'apprentissage. Nous avons principalement travaille sur les attributs qui ont une double description numérique symbolique (discret ordonné). Nous utilisons une interface numérique symbolique basée sur les sous-ensembles flous pour traiter ces données, et nous montrons la façon avec laquelle ces données doivent être exploitées dans des systèmes d'apprentissage classiques. D'autre part, nous avons étudié d'autres types de connaissances du domaine, enrichissant le processus d'apprentissage. Ces connaissances peuvent exprimer, une certaine indifférence entre les décisions, ou des similitudes entre les valeurs des attributs vis a vis des décisions. Notre approche a donné lieu à un système d'apprentissage appelé SAFI (système d'apprentissage flou interactif). Il génère un arbre de décision flou à partir d'un ensemble d'exemples contenant des données floues. Pour construire cet arbre, nous utilisons comme fonction d’évaluation une entropie floue, basée sur les probabilités floues, qui généralise l'entropie classique aux événements flous. Cet arbre de décision peut servir dans le domaine de la commande floue.
APA, Harvard, Vancouver, ISO, and other styles
7

Rafflin, catherine. "Conception d'un système de programmation et de commande de robots mobiles par apprentissage." Montpellier 2, 1995. http://www.theses.fr/1995MON20093.

Full text
Abstract:
Cette these presente un systeme de programmation et de commande de robots mobiles par apprentissage. Dans le but d'assurer la faisabilite des missions, nous avons mis au point une methode d'apprentissage des trajectoires grace a laquelle le robot connait d'une part, les chemins des missions et d'autre part, les actions a accomplir. L'originalite de la methode reside dans l'utilisation conjointe d'une base de donnees de trajectoires apprises et d'informations delivrees en ligne par les capteurs, de facon a autoriser des manuvres telles que le recalage du robot ou les evitements d'obstacles. Dans le premier chapitre, nous posons le probleme de la commande de robots mobiles en environnement interieur, tant sur le plan des strategies de navigation que sur le plan des systemes de localisation ou des structures de commande. Dans le deuxieme chapitre, nous presentons la phase d'acquisition des trajectoires. Pendant cette etape principale, le robot est teleopere tandis que son systeme de localisation est actif et delivre des informations qui sont traitees puis memorisees sous forme de fichiers d'apprentissage. L'execution d'une trajectoire apprise necessite d'une part, une generation de mouvement qui utilise aussi bien des points acquis en ligne que des points acquis pendant la phase d'apprentissage, et d'autre part, le calcul des variables de commande pour le robot considere. Nous decrivons l'une et l'autre dans le troisieme chapitre. Le quatrieme chapitre presente tous les outils necessaires a l'apprentissage des trajectoires d'un ensemble de missions tels que la structuration des chemins, la validation et la correction eventuelle des fichiers d'apprentissage, la gestion de l'enchainement des phases, l'interface homme/machine, la programmation des actions du robot. Nous avons implante le systeme complet de programmation et de commande par apprentissage sur le robot du projet first, dedie au transport de charges en milieu hospitalier. Dans le dernier chapitre, nous presentons ce projet, l'implantation du systeme et les differents essais effectues
APA, Harvard, Vancouver, ISO, and other styles
8

Garlet, Milani Luís Felipe. "Autotuning assisté par apprentissage automatique de tâches OpenMP." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM022.

Full text
Abstract:
Les architectures informatiques modernes sont très complexes, nécessitant un grand effort de programmation pour obtenir toute la performance que le matériel est capable de fournir. En effet, alors que les développeurs connaissent les optimisations potentielles, la seule façon possible de dire laquelle est le plus rapide pour une plate-forme est de le tester. En outre, les nombreuses différences entre deux plates-formes informatiques, dans le nombre de cœurs, les tailles de cache, l'interconnexion, les fréquences de processeur et de mémoire, etc, rendent très difficile la bonne exécution du même code sur plusieurs systèmes. Pour extraire le plus de performances, il est souvent nécessaire d'affiner le code pour chaque système. Par conséquent, les développeurs adoptent l'autotuning pour atteindre un certain degré de performance portable. De cette façon, les optimisations potentielles peuvent être spécifiées une seule fois et, après avoir testé chaque possibilité sur une plate-forme, obtenir une version haute performance du code pour cette plate-forme particulière. Toutefois, cette technique nécessite de régler chaque application pour chaque plate-forme quelle cible. Non seulement cela prend du temps, mais l'autotuning et l'exécution réelle de l'application diffèrent. Des différences dans les données peuvent déclencher un comportement différent, ou il peut y avoir différentes interactions entre les fils dans l'autotuning et l'exécution réelle. Cela peut conduire à des décisions sous-optimales si l'autotuner choisit une version qui est optimale pour la formation, mais pas pour l'exécution réelle de l'application. Nous proposons l'utilisation d'autotuning pour sélectionner les versions du code pertinentes pour une gamme de plates-formes et, lors de l'exécution de l'application, le système de temps d'exécution identifie la meilleure version à utiliser à l'aide de l'une des trois politiques que nous proposons: Mean, Upper Confidence Bound et Gradient Bandit. De cette façon, l'effort de formation est diminué et il permet l'utilisation du même ensemble de versions avec différentes plates-formes sans sacrifier les performances. Nous concluons que les politiques proposées peuvent identifier la version à utiliser sans subir de pertes de performance substantielles. De plus, lorsque l'utilisateur ne connaît pas suffisamment de détails de l'application pour configurer de manière optimale la politique d'exploration puis de validation utilisée par d'autres systèmes de temps d'exécution, la politique UCB plus adaptable peut être utilisée à sa place
Modern computer architectures are highly complex, requiring great programming effort to obtain all the performance the hardware is capable of delivering. Indeed, while developers know potential optimizations, the only feasible way to tell which of them is faster for some platform is to test it. Furthermore, the many differences between two computer platforms, in the number of cores, cache sizes, interconnect, processor and memory frequencies, etc, makes it very challenging to have the same code perform well over several systems. To extract the most performance, it is often necessary to fine-tune the code for each system. Consequently, developers adopt autotuning to achieve some degree of portable performance. This way, the potential optimizations can be specified once, and, after testing each possibility on a platform, obtain a high-performance version of the code for that particular platform. However, this technique requires tuning each application for each platform it targets. This is not only time consuming but the autotuning and the real execution of the application differ. Differences in the data may trigger different behaviour, or there may be different interactions between the threads in the autotuning and the actual execution. This can lead to suboptimal decisions if the autotuner chooses a version that is optimal for the training but not for the real execution of the application. We propose the use of autotuning for selecting versions of the code relevant for a range of platforms and, during the execution of the application, the runtime system identifies the best version to use using one of three policies we propose: Mean, Upper Confidence Bound, and Gradient Bandit. This way, training effort is decreased and it enables the use of the same set of versions with different platforms without sacrificing performance. We conclude that the proposed policies can identify the version to use without incurring substantial performance losses. Furthermore, when the user does not know enough details of the application to configure optimally the explore-then-commit policy usedy by other runtime systems, the more adaptable UCB policy can be used in its place
APA, Harvard, Vancouver, ISO, and other styles
9

Lévy, Benjamin. "Principes et architectures pour un système interactif et agnostique dédié à l’improvisation musicale." Paris 6, 2013. http://www.theses.fr/2013PA066652.

Full text
Abstract:
Le travail présenté dans cette thèse se concentre sur la conception et la réalisation d’un système informatique, capable d’interagir musicalement et pertinemment avec des musiciens acoustiques dans le cadre de l’improvisation libre collective, c’est à dire de l’improvisation détachée de toute structures, règles ou style prédéfinis. Nous étendrons ce cadre à la fin de notre travail en y intégrant l’utilisation de propriétés émergentes telles que la pulsation ou une notion large d’harmonie. Le projet OMax propose d’aborder le problème de l’improvisation non-idiomatique par l’apprentissage et l’imitation à la volée du style d’un musicien à l’aide d’un modèle de connaissance agnostique. Ce système sert de base à notre travail et nous en examinons attentivement trois aspects : les principes conceptuels du système, les architectures logicielles permettant une implémentation efficace, et l’usage réel du système dans de nombreux tests et concerts. Outre une étude fouillée de tous les éléments théoriques du système suivant une décomposition anthropomorphique de ses différentes parties, les contributions principales du travail présenté dans cette thèse sont la conception et la réalisation de plusieurs nouvelles versions du système OMax. Ce travail a été fortement associé à des tests réguliers des prototypes du système avec de nombreux musiciens de premier plan
The work presented in this thesis focuses on the conception and realization of a software capable of pertinent interaction with acoustic musicians in a collective free improvisation, that is an improvisation without any predetermined knowledge of structures, rules or style. It is extended at the end of our work with considerations on emerging properties such as pulse or a broad notion of harmony. The OMax project proposes to approach this problem of non-idiomatic improvisation by learning and mimicking the style of a musician with an agnostic and incremental knowledge model. We take this computer system as our work basis and examine carefully three aspects: the conceptual principles of the system, the software architectures for effective implementations and the real-life usage of this system in numerous testing and concerts situations. Besides a thorough study of all the conceptual elements of the system based on anthropomorphic decomposition of its parts, our main contribution is the design and realization of several variations of the OMax system. Our work has been also strongly coupled with the testing of our prototypes with several leading musicians
APA, Harvard, Vancouver, ISO, and other styles
10

Nicolas, Jacques. "Ally, un systeme logique pour la generalisation en apprentissage automatique." Rennes 1, 1987. http://www.theses.fr/1987REN10043.

Full text
Abstract:
Deux criteres sont proposes, permettant de specifier logiquement les proprietes des formules produites par l'operation de generalisation: un critere de consistance et un critere de preference. Un langage de representation particulierement riche (la classe de bernays-schoenfinkel) est utilise
APA, Harvard, Vancouver, ISO, and other styles
11

Nicolas, Jacques. "ALLY, un système logique pour la généralisation en apprentissage automatique." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608434q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Le, Lann Marie-Véronique. "Commande prédictive et commande par apprentissage : étude d'une unité pilote d'extraction, optimisation par apprentissage." Toulouse, INPT, 1988. http://www.theses.fr/1988INPT023G.

Full text
Abstract:
Presentation de deux algorithmes de commande adaptative a caractere predictif (commande predictive generalisee et commande predictive generalisee avec modeles de references) et leur application au controle monovariable de l'unite pilote. La commande monovariable a apprentissage est realisee a l'aide d'un seul automate, puis a l'aide d'une structure hierarchique. La commande multivariable (transfert de matiere et hydrodynamique) est effectuee selon trois schemas de commande : deux boucles de commande independantes ; deux boucles interconnectees, et une boucle a deux entrees deux sorties
APA, Harvard, Vancouver, ISO, and other styles
13

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Full text
Abstract:
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images
APA, Harvard, Vancouver, ISO, and other styles
14

Vu, Viet-Vu. "Clustering semi-supervisé et apprentissage actif." Paris 6, 2011. http://www.theses.fr/2011PA066607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Duneau, Laurent. "Etude et réalisation d'un système adaptatif pour la reconnaissance en ligne de mots manuscrits." Compiègne, 1994. http://www.theses.fr/1994COMP7665.

Full text
Abstract:
L'utilisation du stylo comme interface homme-machine nécessite la mise au point de systèmes de reconnaissance performants. De plus, pour améliorer le confort de l'utilisateur, et donc, sa productivité, il est très souhaitable de pouvoir identifier des mots manuscrits cursifs, dans lesquels les lettres ne sont pas obligatoirement séparées les unes des autres. Nous proposons ici un système qui effectue simultanément reconnaissance et segmentation en lettres, pour un vocabulaire prédéfini de plusieurs dizaines de milliers de mots. La solution envisagée repose sur un ensemble de prototypes de lettres, ainsi que sur une recherche heuristique, dirigée par le lexique. La principale originalité de ce système est sa grande capacité d'apprentissage. Celui-ci peut en effet apprendre automatiquement l'écriture d'un utilisateur donné, directement à partir d'un échantillon de quelques dizaines à quelques centaines de mots manuscrits. Cette opération est fondée sur un module qui permet de segmenter en lettres un ensemble de mots étiquettés, sans intervention humaine. En suivant le même principe, notre système est également capable de s'adapter à une nouvelle écriture au cours de son utilisation. Cette adaptation continue permet d'obtenir des taux de reconnaissance supérieurs à 95%, pour un vocabulaire de près de 25000 mots.
APA, Harvard, Vancouver, ISO, and other styles
16

Robinel, Audrey. "Analyse comportementale automatique par des systèmes apprenants." Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0672.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Alcheikh, Hamoud Khaled. "Modélisation des grands systèmes électriques interconnectés : application à l'analyse de sécurité dans un environnement compétitif." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0032.

Full text
Abstract:
La restructuration du secteur de l'énergie électrique et la dérégulation du marché de l'électricité, les contraintes environnementales et dans certains cas des investissements insuffisants dans les infrastructures des systèmes électriques forment actuellement les principaux facteurs qui poussent les opérateurs des systèmes électriques à faire fonctionner ces derniers dans des conditions opérationnelles contraignantes, à savoir de plus en plus près de leurs limites de stabilité. En effet, afin de pouvoir exploiter leurs réseaux électriques avec des marges de sécurité réduites sans détérioration significative de la sûreté de fonctionnement, les gestionnaires des réseaux de transport (GRTs) ont récemment adopté un nouvel outil pour se prémunir contre le risque des pannes généralisées (blackouts) des réseaux électriques. Il s'agit de l'analyse en ligne de sécurité. A l'heure actuelle, en l'absence d'un coordinateur de sécurité central ou d'échanges complets de données en ligne entre tous les GRTs, l'analyse en ligne de sécurité des grands systèmes électriques interconnectés se fait d'une manière décentralisée au niveau du GRT de chaque zone de réglage. Le problème majeur de l'analyse décentralisée des systèmes interconnectés réside dans le fait que chaque GRT n'est pas capable d'évaluer la vulnérabilité de son système à l'égard des contingences externes originaires des zones de réglage voisines. Dans cette thèse, nous proposons comme solution à ce problème un nouveau cadre de coopération et de coordination entre les GRTs. Dans ce cadre, les GRTs s'échangent en ligne et hors ligne les données nécessaires permettant à chacun d'entre eux premièrement d'évaluer l'impact de ses contingences externes sur la sécurité de sa zone, deuxièmement de concevoir, en utilisant des techniques d'apprentissage automatique, des filtres qu'il utilise ensuite en ligne pour le filtrage rapide de ses contingences externes de sorte que seules les contingences externes potentiellement dangereuses soient sélectionnées pour une analyse détaillée en ligne
APA, Harvard, Vancouver, ISO, and other styles
18

Zehraoui, Farida. "Systèmes d'apprentissage connexionnistes et raisonnement à partir de cas pour la classification et le classement de séquence." Paris 13, 2004. http://www.theses.fr/2004PA132007.

Full text
Abstract:
La thèse porte sur l'utilisation de techniques d'apprentissage automatique pour le traitement de séquences. Ce travail est motivé par une application réelle qui consiste à modéliser le comportement d'un internaute à partir de traces de navigations. Nous avons d'abord proposé un système de raisonnement à partir de cas (RàPC) << CASEP >> pour le classement ou la prédiction à partir de séquences. Des mesures de maintenance sont associées aux cas pour faire face au bruit contenu dans les données et pour effectuer la réduction de la base de cas. Nous avons ensuite proposé plusieurs modèles de cartes auto-organisatrices (SOM) pour la classification et le classement de séquences. Nous nous sommes intéressés à l'insertion des propriétés de plasticité et de stabilité dans une carte SOM ainsi qu'au traitement des séquences temporelles. A la fin de cette étude, nous avons travaillé sur la possibilité de coopération des systèmes connexionnistes avec l'approche de RàPC afin de concevoir des systèmes hybrides. Nous avons ainsi proposé le système hybride << CASEP2 >> qui combine le raisonnement à partir de cas avec l'un des réseaux de neurones que nous avons proposés.
APA, Harvard, Vancouver, ISO, and other styles
19

Paulin, Mathias. "Contributions à l'apprentissage automatique de réseau de contraintes et à la constitution automatique de comportements sensorimoteurs en robotique." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00340438.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à l'acquisition automatique de réseau de contraintes, aussi appelée apprentissage automatique de réseau de contraintes, qui consiste à développer des solutions capables d'aider un utilisateur à modéliser un problème combinatoire sous la forme d'un réseau de contraintes. Notre travail se focalise plus précisément sur la plate-forme d'acquisition automatique de réseau de contraintes CONACQ. Dans son implémentation standard, CONACQ est passive vis-à-vis de l'utilisateur, c'est-à-dire basée sur la capacité de ce dernier à fournir des instances significatives de son problème. Dans la première partie de cette thèse, nous proposons une version interactive de CONACQ, capable de poser à l'utilisateur des questions dont le but est d'augmenter plus rapidement et de manière conséquente la connaissance acquise par la plate-forme. Afin de limiter le nombre d'interactions, nous proposons différentes stratégies de questionnement que nous validons ensuite empiriquement. Dans la seconde partie, nous nous intéressons à une utilisation pratique de l'acquisition automatique de réseau de contraintes qui vise à automatiser le processus de définitions de comportements sensorimoteurs en robotique. Dans cette optique, nous proposons une architecture logicielle, complémentaire aux architectures de contrôle existantes, qui utilise le paradigme de la programmation par contraintes pour modéliser, planifier et superviser l'exécution de comportements sensorimoteurs. Elle utilise la plate-forme CONACQ étudiée dans la première partie de cette thèse pour modéliser automatiquement les actions élémentaires d'un robot sous la forme de réseaux de contraintes. Notre architecture utilise par ailleurs un planificateur de tâches inspiré de CSP-Plan pour combiner les réseaux de contraintes acquis et ainsi définir automatiquement des comportements sensorimoteurs. Différents résultats expérimentaux sont par ailleurs présentés afin de valider notre approche.
APA, Harvard, Vancouver, ISO, and other styles
20

Boucheron, Stéphane. "Apprentissage et calculs." Montpellier 2, 1988. http://www.theses.fr/1988MON20251.

Full text
Abstract:
Dans une premiere partie, l'apprentissage automatique a partir d'exemples est analyse a la maniere de valiant dans le cadre de la theorie de la complexite. Des definitions de l'apprentissage a partir d'exemples positifs et de l'apprentissage a partir des donnees corrompues sont proposees et caracterisees tant du point de vue combinatoire que du point de cue algorithmique. Enfin la complexite spatiale de l'apprentissage est analysee a l'aide de concepts issus de la theorie de la complexite de communication. Dans une seconde partie, les rapports des theories formelles de l'apprentissage aux sciences cognitives sont envisages comme ceux de deux niveaux d'explication des phenomenes mentaux, compatibles entre eux, meme s'ils n'utilisent pas de la meme maniere leurs postulats de base. Dans ce contexte l'apport des theories formelles de l'apprentissage aux sciences cognitives est illustre par l'analyse de la controverse inne/acquis. Enfin des differences fondamentales entre les deux niveaux d'explication mentionnes plus haut sont soulignees au travers de l'analyse de la critique de l'usage de la notion de regle par wittgenstein et ses commentateurs
APA, Harvard, Vancouver, ISO, and other styles
21

Moneret, Régis. "Strategos : un système multi-jeux utilisant la théorie combinatoire des jeux, capable d'apprendre automatiquement les dépendances entre sous-jeux locaux." Paris 6, 2000. http://www.theses.fr/2000PA066338.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Pessiot, Jean-François. "Apprentissage automatique pour l'extraction de caractéristiques : application au partitionnement de documents, au résumé automatique et au filtrage collaboratif." Paris 6, 2008. http://www.theses.fr/2008PA066218.

Full text
Abstract:
En apprentissage statistique, le choix de la représentation des données est crucial et a motivé le développement de méthodes permettant de modifier la représentation initiale des données. Dans cette thèse, nous étudions la problématique du choix de la représentation des données au travers de l'extraction de documents et le résumé automatique de texte. En extraction multi-tâches, nous proposons également des algorithmes d'apprentissage pour la régression et pour l'ordonnancement d'instances. Nous appliquons nos deux modèles au filtrage collaboratif, d'abord vu comme un problème de prédiction de notes, puis comme un problème de prédiction d'ordre.
APA, Harvard, Vancouver, ISO, and other styles
23

Akindele, Oluwatoyin Tunde. "Vers un système de construction automatique de modèles génériques de structures de documents." Nancy 1, 1995. http://www.theses.fr/1995NAN10002.

Full text
Abstract:
Cette thèse traite de l'apprentissage des modèles génériques de structures de documents. L’intérêt du système conçu et développé est double: il permet de simplifier la tâche de construction manuelle du modèle souvent pénible et de contrôler les connaissances a priori données au modèle. Un travail préliminaire sur l'analyse de documents consistait en l'étude des différents formalismes existant pour représenter les structures de documents. En se basant sur le formalisme ODA, nous avons défini un modèle de structures adapté à la lecture optique de documents. Étant donne que l'architecture du modèle est arborescente, nous nous sommes dirigés naturellement vers les méthodes d'inférence de grammaires d'arbres. Chaque document est segmenté puis représenté par une structure spécifique. Afin de contrôler ce processus (ne pas altérer la structure par celles de mauvais échantillons) et d'introduire la structure logique, un modèle de base est d'abord construit à partir de quelques échantillons de documents et avec toute la vaillance de l'utilisateur. À l'étape d'inférence, la structure spécifique de chaque échantillon est d'abord comparée au modèle de base. Puis, en cas de validité, elle est utilisée pour l'inférence du modèle générique. Cette inférence est effectuée par la méthode d'inférence de grammaires d'arbres. Une dernière étape de réduction est utilisée pour éliminer les répétitions et les redondances. Le résultat de ce système est un ensemble de règles décrivant le modèle générique de la classe de documents à laquelle appartiennent les échantillons utilisés pour l'apprentissage. Le système a été testé sur une base complète de documents correspondant aux pages de titre des articles des actes des conférences ICPR (International Conference On Pattern Recognition) et les résultats sont concluants
APA, Harvard, Vancouver, ISO, and other styles
24

Martin, Arnaud. "Évolution de profils multi-attributs, par apprentissage automatique et adaptatif dans un système de recommandation pour l'aide à la décision." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1753/.

Full text
Abstract:
La prise en compte des profils utilisateurs ainsi que leurs évolutions, dans le domaine de l'aide à la décision, constitue actuellement dans la communauté des SIAD (Systèmes Interactifs d'Aide à la Décision) un enjeu important. En effet, la prise en compte du contexte lors de la décision est actuellement émergente pour les SIAD. Ces systèmes d'assistance offrent ainsi des conseils aux utilisateurs en se basant sur leur profil, qui représente leurs préférences à travers une liste de critères valués. Les principales contraintes viennent du fait qu'il est nécessaire que le système puisse amener de l'information pertinente de manière continue. Cela oblige donc à faire évoluer les profils des utilisateurs en fonction de leurs actions. Pour cela, le système ne doit pas seulement " comprendre " ce que l'utilisateur aime, mais également pourquoi. De plus, l'aide apportée aux utilisateurs évoluera donc dans le temps et également par rapport à l'utilisateur. Ainsi l'utilisateur aura à sa disposition une sorte d'assistant personnalisé. L'objectif du travail consiste à apporter une aide à l'activité de l'utilisateur en fonction de son profil. Pour cela, nous proposons de mettre en œuvre et de développer des algorithmes, basés sur des techniques issues du domaine de l'apprentissage, afin de faire évoluer le profil d'un utilisateur en fonction de ses actions. L'aide apportée à l'utilisateur par le système évoluera aussi en fonction de l'évolution de son profil. Le problème à traiter pour l'utilisateur est un problème de prise de décision. Pour ce problème, une assistance est apportée à l'utilisateur, et celle-ci se fait par un affinage des solutions potentielles. Cet affinage est effectué grâce à la mise en place d'un tri (ranking) évolutif des solutions qui sont présentées à l'utilisateur en fonction de son/ses profils. La réalisation d'un tel système nécessite l'articulation des trois principaux domaines de recherche ; qui sont l'Aide à la Décision multicritère, la Décomposition et Agrégation de préférence, et l'Apprentissage automatique. Les domaines de l'Aide à la Décision multicritère et de la Décomposition et Agrégation de préférence peuvent être aussi rassemblés en tant que Procédure d'Agrégation Multicritère (PAMC). Certaines méthodes d'Aide à la Décision multicritère sont mises en place ici et utilisent les données du profil afin d'apporter la meilleure aide possible à l'utilisateur. La décomposition est utilisée pour caractériser un objet afin de fournir à l'apprentissage les données nécessaires à son fonctionnement. L'agrégation quant à elle sert à obtenir une note sur un objet, et cela selon le profil de l'utilisateur, afin de pouvoir effectuer un classement (ranking). L'apprentissage sert à faire évoluer les profils des utilisateurs afin d'avoir toujours un profil représentant le plus fidèlement possible les préférences des utilisateurs. En effet les préférences des utilisateurs évoluant dans le temps, il est nécessaire de traiter ces changements afin d'adapter les réponses à apporter à l'utilisateur. Les contributions de cette thèse portent tout d'abord sur la définition, la construction et l'évolution d'un profil utilisateur (profiling évolutif) en fonction des actions explicites et implicites de l'utilisateur. Ce profiling évolutif est mis en œuvre au sein d'un système de recommandation utilisable sans base d'apprentissage, de manière synchrone et totalement incrémentale, et qui permet aux utilisateurs de changer rapidement de préférences et même d'être incohérents (rationalité limitée). Ce système, qui vient en complément d'un système de Recherche Information, a pour objectif d'établir un ordre total sur une liste d'éléments proposés à l'utilisateur (ranking), et ce en concordance avec les préférences de l'utilisateur. Ces contributions consistent également à la définition de techniques qui permettent d'apporter des parties de solutions à des verrous technologiques comme la désagrégation de critères et la prise en compte d'un nombre variable de critères dans le processus d'aide à la décision interactif, et ce sans définir au préalable de famille cohérente de critères sur laquelle est basée la décision. Plusieurs cadres applicatifs ont été définis afin d'évaluer le système par rapport à d'autres systèmes, mais également afin de tester ses performances de manière hors ligne avec des vraies données utilisateurs, ainsi qu'en ligne, en utilisant directement le système
Considering user profiles and their evolutions, for decision support is currently in the community of DSS (Decision Support Systems) an important issue. Indeed, the inclusion of context in the decision is currently emerging for DSS. Indeed the system offers advice to users based on their profile, which represents their preferences through a list of valued criteria. The main constraints come from the fact that the system need to continuously bring relevant information. It therefore requires changing user profiles thanks to their actions. So, the system must not only "understand" what the user likes, but also why. The users' assistance will evolve over time and therefore with the user. Thus the user has at his disposal a kind of personal assistant. The objective of this work is to provide assistance to the user's activity according to his profile. The objective is to develop an algorithm based on automatic techniques, in order to change the profile of a user based on his actions. The assistance provided to the user by the system will evolves according to the evolution of its profile. The problem addressed to the user is a problem of decision making. For this problem, assistance is provided to the user, and it is a refinement of potential solutions. This refining is done through the establishment of scalable scheduling solutions that are presented to the user depending on his / her profile. The realization of such a system requires the articulation of the three main areas of research which are the Multi-Criteria Decision Support, the Disaggregation and Aggregation of preferences, and Machine Learning. The fields of Decision Support and Multi Disaggregation and Aggregation preference can also be assembled as Multi-Criteria Aggregation Process (PAMC). Some methods of Multicriteria Decision Support are set up here and use profile data to provide the best possible support to the user. The decomposition is used to characterize an object to provide data to the learning algorithm required for its operation. Aggregation serves to score an object according to the user profile in order to rank the selected items. Machine Learning is used to change user profiles in order to always have a profile representing as closely as possible the preferences of users. Indeed user preferences change over the time, it is necessary to address these changes in order to adapt the answers to the user. The contributions of this thesis are firstly, the definition, construction and evolution of a user profile (evolutionary profiling) based on explicit and implicit user's actions. This evolutionary profiling is implemented within a recommender system usable without learning base, synchronously and completely incremental, and that allows users to quickly change their preferences and even to be inconsistent (bounded rationality). This system, which complements an Information System Research, aims to establish a total order on a list of items proposed to the user (ranking) and in accordance with his preferences. These also include the definition of techniques used to make parts of solutions to technological challenges as the disintegration of criteria and the inclusion of a variable number of criteria in the process of interactive decision support, and this without firstly defining coherent family of criteria on which the decision is based. Several application frameworks have been developed to evaluate the system and compare it to other systems, but also to test its performance with real user data in an offline mode, and in an online mode using directly the system
APA, Harvard, Vancouver, ISO, and other styles
25

Martinez, Margarit Aleix. "Apprentissage visuel dans un système de vision active : application dans un contexte de robotique et reconnaissance du visage." Paris 8, 1998. http://www.theses.fr/1998PA081521.

Full text
Abstract:
Dans cette these, nous presentons de nouvelles idees pour le developpement des plates-formes actives qui aident un agent autonome (artificiel) a reconnaitre des objets et a se reperer dans un environnement spatial. Pour resoudre ce probleme, nous avons etudie des representations distinctes basees sur l'aspect exterieur. Plus concretement, nous avons etudie l'utilisation de divers filtres gaussiens et particulierement les filtres orientables. Nous montrons comment ces filtres s'adaptent bien aux situations reelles et peuvent etre utilises de maniere efficace sur des plates-formes de vision active. Nous presentons des idees de base avec la description de sujets et l'etude de representation de donnees visuelles. Pour ceci, nous analyserons les differents filtres (gaussiens, premiere et deuxieme derivee de la gaussienne), ainsi qu'une nouvelle idee de representation iconique basee sur des filtres orientes. Posterieurement, nous decrivons une nouvelle idee pour l'utilisation de cette representation iconique dans des applications reelles, basee sur le balayage du systeme visuel humain. Des ordres assez simples, permettent d'obtenir de tres bons resultats en reconnaissance de visages et d'environnements spatiaux. Le systeme se divise en trois parties : 1) attention visuelle. 2) extraction de l'information et reduction de la dimensionnalite. 3) strategie de balayage visuel. L'objectif final est d'ameliorer quelques uns des problemes evoques dans les chapitres precedents. Pour obtenir de meilleurs resultats, nous avons formalise l'algorithme em (esperance - maximisation) avec des algorithmes genetiques. Nous avons implemente un nouvel algorithme de navigation active pour la navigation d'un robot dans un environnement inconnu. Ce systeme de navigation utilise des annotations de haut niveau pour la communication avec l'usager et les autres modules du systeme. Le dernier chapitre decrit les conclusions et les lignes de poursuite de la these.
APA, Harvard, Vancouver, ISO, and other styles
26

Dussart, Claude. "Méta-apprentissage dans un environnement d'expériences distribuées." Lyon 1, 2002. http://www.theses.fr/2002LYO10118.

Full text
Abstract:
Dans certains domaines de la vie économique, notamment dans le domaine de la santé, de nombreuses expériences réparties dans le temps et/ou dans l'espace traitent d'un même sujet et y apportent leur éclairage. De chaque expérience, on peut élaborer une prédiction, une connaissance selon différentes techniques d'apprentissage. La problématique de notre travail vise à répondre à la question suivante : comment traiter automatiquement les résultats obtenus par apprentissage sur des expériences distribuées ? Le méta-apprentissage répond à cette question. Il s'agit d'élaborer une méta-connaissance. Cette méta-connaissance permet de définir une prédiction finale mais aussi d'expliquer les variations observées sur les prédictions issues de chaque apprentissage. Classiquement, le méta-apprentissage peut alors être conduit selon trois stratégies : la stratégie par vote, par combinaison et par arbitrage. Après avoir développé ces trois stratégies, en apportant une attention particulière à la stratégie par vote trop souvent négligée, nous proposons un stratégie novatrice : la stratégie méta-analytique qui permet d'élaborer de la méta-connaissance à partir d'expériences distribuées et indépendantes. Un outil de médiation dans la recherche d'information a été par ailleurs développé afin d'optimiser notre stratégie. Une expérimentation est menée en étudiant l'efficacité d'une molécule, la STbr, utilisée afin d'augmenter la production laitière.
APA, Harvard, Vancouver, ISO, and other styles
27

Crémilleux, Bruno. "Induction automatique : aspects théoriques, le système ARBRE, applications en médecine." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339492.

Full text
Abstract:
L'objectif de ce travail est d'étudier l'induction en tant qu'outil exploratoire de bases d'exemples. L'induction automatique fournit une description tenant compte de l'ensemble des individus de la base d'exemples et en extrait la connaissance nécessaire à la résolution d'un problème. Il existe de nombreux algorithmes d'induction employant différents critères pragmatiques pour sélectionner une variable. Une formalisation mathématique du problème de la sélection d'une variable est proposée. Elle permet d'une part de définir une famille de "bons" critères reposant sur le choix d'une fonction strictement concave. D'autre part, les systèmes d'induction incertaine décrits dans la littérature emploient des techniques d'élagage dont le but est la construction d'arbres de classement. Une méthode d'élagage liée à un indice de qualité et adaptée à notre usage de l'induction incertaine est proposée. Elle montre en quoi la construction et l'élagage d'un arbre relèvent des mêmes concepts théoriques (l'indice de qualité fait intervenir les résultats des calculs entrepris lors de la construction de l'arbre). Un système d'induction (ARBRE) mettant enoeuvre ces résultats théoriques a été développé. il met en évidence les spécifications qui, à notre avis, sont indispensables pour un système en domaine incertain. Il permet une exploration immédiate de base d'exemples sans connaissance préalable du domaine, et représente la connaissance acquise sous la forme d'arbres d'induction. Trois problèmes médicaux réels montrent l'intérêt de l'usage d'un tel système, adapté à tout domaine où la connaissance est incertaine.
APA, Harvard, Vancouver, ISO, and other styles
28

Damas, Luc. "Étude théorique et pratique de la production d'effets d'amorçage de la mémoire : application à l'assistance à la remémoration chez l'utilisateur d'un système informatique pour une tâche d'apprentissage." Lyon 1, 2003. http://www.theses.fr/2003LYO10226.

Full text
Abstract:
Les utilisateurs semblent utiliser l'outil informatique comme un prolongement de leur propre mémoire. Nous voulons vérifier s'il est possible de capter ce status d'extension dans un but d'assistance. Une pluridisciplinarité s'impose alors par l'introduction de la modélisation du fonctionnement cognitif des utilisateurs : nous avons modélisé l'utilisateur sous la forme d'un alter-ego ayant un comportement mnésique similaire à celui de l'utilisateur. Un souci majeur a été de valider le principe de base de l'alter-ego. Nous obtenons en simulation des comportements similaires aux comportements humains. Nous avons conçu une expérimentation mettant en oeuvre un assistant à la remémoration basé sur l'utilisation d'un alter-ego mnésique de l'apprenant. Nous avons mis en évidence que le comportement du simulateur de mémoire est corrélé au comportement du sujet et que l'assistance à la remémoration basée sur ce type d'assistance est efficace
APA, Harvard, Vancouver, ISO, and other styles
29

Daoudlarian, Douglas. "Rôle des interactions entre les systèmes immunitaire et nerveux : études préclinique et clinique." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4032.

Full text
Abstract:
Alors que le rôle dans la protection contre des pathogènes par le système immunitaire est bien compris, son rôle dans la progression tumoral est bien plus complexe avec certains mécanismes protecteurs tandis que d’autres sont néfastes. Le principal rôle physiologique du cerveau est lui de percevoir et intégrer les stimuli physiques et sociaux, d’intégrer ces signaux et de moduler l’activité des processus physiologiques de l’organisme pour s’adapter à ces conditions. Bien que les systèmes nerveux et immunitaires aient longtemps été considérés comme fonctionnant indépendamment, de multiples études cliniques et précliniques ont formellement démontré que ces deux systèmes pouvaient se réguler réciproquement. Bien que de nombreuses études visent à mieux comprendre les interactions entre les systèmes nerveux et immunitaire, de nombreuses questions restent sans réponses. Alors que les études cliniques ont prouvé un rôle positif dans la progression tumorale du bien-être, les mécanismes moléculaires ne sont pas encore compris. De plus, de nombreuses études ont essayé de trouver si les cytokines pouvaient être utilisées comme biomarqueurs diagnostic ou prédictif de la réponse au traitement dans les maladies psychiatriques, aucune cytokine étudiée à cette date n’a été démontrée comme suffisamment sensible ou spécifique pour être utilisée comme test diagnostique. Au cours de mes travaux de thèses, j’ai travaillé sur deux projets distincts étudiant les relations entre systèmes nerveux et immunitaires. Le but de mon premier projet a été d’identifier des mécanismes par lesquels un environnement enrichi (EE) associé à une meilleure activité sensorielle, cognitive et motrice pouvait impacter la progression métastatique chez la souris. Nous avons découvert que l’EE avait un effet protecteur dans la prise métastatique pulmonaire. Cette protection est associée à une diminution du niveau de corticostérone sérique, une augmentation de l’inflammation pulmonaire après extravasation de cellules tumorales circulantes. Cette protection est abolie en absence de signalisation sur récepteur aux glucocorticoïdes dans les monocytes inflammatoires. Alors que les monocytes inflammatoires sont généralement décrits comme favorisant la progression tumorale, ils peuvent aussi avoir une action antitumorale, suggérant que leur rôle est bien plus complexe qu’actuellement décrit. Nos résultats ont mis en avant un mécanisme antitumoral de reprogrammation dépendant des glucocorticoïdes des monocytes inflammatoires inhibant la progression métastatique. Mon second projet avait pour but d’identifier des biomarqueurs de la réponse aux traitements de patients ayant un premier épisode psychotique (FEP). Nous avons eu la possibilité d’accéder une cohorte de sérums et données cliniques de 325 patients FEP, tous les patients ont été traités avec le même antipsychotique. Nous avons d’abord utilisé une approche de clustering hiérarchique non supervisé pour stratifier les 325 patients dans 4 sous-groupes en utilisant uniquement leur symptomatologie. Un sous-groupe (C1A) après comparaison avec le reste de la cohorte, montre une symptomatologie plus sévère ainsi qu’un taux de réponse le plus faible après 4 semaines de traitement. Le groupe C1A montre aussi une augmentation du niveau de plusieurs biomarqueurs sériques pro-inflammatoire permettant une validation externe de cette stratification. L’utilisation de 6 variables biologiques (IL-15, protéine c-réactive, CXCL-12, niveaux d’IgG anti CMV et anti Toxoplasma gondii) et de 2 variables cliniques (Âge et utilisation de drogues récréationnelle) a permis de prédire la réponse après traitement. La précision de prédiction après validation croisée est très bonne avec une aire sous courbe moyenne de 81.0% (± 0.05). Une confirmation de ces résultats dans d’autres essais cliniques pourrait amener le développement d’une nouvelle approche basée sur le dosage de biomarqueurs sériques dans le choix du traitement chez les patients psychotiques
While the immune system is well known for its protective role against infectious pathogens, its role in cancer progression is more complex with some immune mechanisms being protective while others are detrimental. The primary physiological role of the brain is to perceive external physical and social conditions, assess their implications for organismal well-being and modulate the activity of internal physiological processes to optimally adapt to those external conditions. Immune and the nervous systems have long been considered to operate independently from each other, many preclinical and clinical studies have clearly demonstrated that these two systems interact and regulate each other. Despite more and more studies aim at investigating the interactions between the nervous and the immune systems, important issues remain to be elucidated. For example, while human studies have demonstrated a positive impact of well-being on cancer progression, the underlying molecular mechanisms have not been elucidated. On another topic, and while many investigators have investigated whether cytokines could be used as diagnosis or prognosis biomarkers is psychiatric diseases, none of the cytokine studied to date have proven to possess the sensitivity and specificity expected for an accepted diagnostic test value. During my PhD, I have worked on two different projects both related to the interactions between the nervous and the immune system. The goal of my first project was to elucidate the mechanisms by which enriched environment conductive to enhanced sensory, cognitive and motor stimulation impact metastatic progression in mice. We have found that mice housed in enriched environment were protected from lung metastasis. Protection was associated with lower serum corticosterone levels, increased lung inflammation following extravasation of circulating tumour cells, and rapid killing of early infiltrating tumour cells. Protection was abolished when inflammatory monocytes were deficient in glucocorticoid receptor signalling. Thus, while inflammatory monocytes have been shown to promote cancer progression, our results disclosed a novel anti-tumour mechanism whereby glucocorticoid receptor-dependent reprogramming of inflammatory monocytes can inhibit cancer metastasis. The goal of my second project was to identify immune-related biomarkers of remission in first-episode psychotic (FEP) patients. To this aim, we have taken advantage of our privileged access to clinical data and serum samples from 325 FEP patients who have all been treated with an atypical antipsychotic. We have first used a hierarchical unsupervised clustering approach to stratify 325 FEP patients into four subtypes based on their clinical symptoms. Compared to the rest of the cohort, one subtype (C1A) exhibited more severe positive and negative symptoms and were the most at risk of being non-remitters following treatment for 4 weeks. C1A patients also exhibited higher levels of several pro-inflammatory biomarkers therefore providing an external validation to our clustering approach. Most importantly, six biological variables (serum levels of IL-15, C reactive protein, CXCL-12, anti- cytomegalovirus and anti-Toxoplasma immunoglobulins) and two clinical variables (age, recreational drug use), predicted early remission following treatment with Amisulpride in C1A patients. Prediction accuracy assessed by cross-validation calculated by 10,000 iterations of 4-fold cross-validation was very good with a mean area under the curve (AUC) of 81.0% ± 0.05. Further validation of our results in future clinical trials would pave the way for the development of a blood-based assisted clinical decision support system for the choice of treatment in psychotic patients
APA, Harvard, Vancouver, ISO, and other styles
30

Veillon, Lise-Marie. "Apprentissage artificiel collectif ; aspects dynamiques et structurels." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD004/document.

Full text
Abstract:
L’apprentissage collectif dans un système multi-agents considère comment une communauté constituée d’agents autonomes partageant un même objectif d’apprentissage peut bénéficier, au niveau individuel et collectif, d’échanges structurés d’informations. Les agents, reliés par un réseau de communication, ont tous la faculté de percevoir des observations, appelées exemples d’apprentissage. Cette thèse s’appuie sur un protocole pré-existant, SMILE (Sound-Multi-agent-Incremental-LEarning), qui organise un échange parcimonieux d’exemples et d’hypothèses. Ce protocole garantit, dans le cas d’agents tous connectés, que les agents obtiennent une hypothèse qui tient compte de tous les exemples perçus par l’ensemble des agents. Il existe des variantes séquentielles de ce protocole qui mettent en place une propagation de l’information pour offrir les mêmes garanties dans un réseau, non pas complet mais, connexe.Cette thèse apporte deux nouveaux éclairages sur l’apprentissage artificiel collectif. Une première étude montre l’influence de la structure du réseau sur l’apprentissage avec un protocole dont les communications sont limitées au voisinage, sans propagation. Une seconde contribution présente et analyse un nouveau protocole, Waves, qui préserve les garanties de SMILE et dont les interactions en parallèle rendent l’apprentissage en réseau plus dynamique. Ce protocole est évalué en détail,dans un contexte simplifié de tour par tour, ce qui permet de le raffiner par la suite avec diverses améliorations. Il est cependant conçu pour s’adapter à un apprentissage en ligne et une acquisition non limitée, ni en temps ni en nombre, de nouveaux exemples par la communauté
Collective learning in multi-agent systems considers how a community of autonomous agents sharing a learning purpose may benefit from exchanging information to learn efficiently as a community as well as individuals. The community forms a communication network where each agent may accesses observations, called learning examples. This thesis is based on a former protocol, SMILE (Sound-Multi-agent-Incremental-LEarning), which sets up parsimonious examples and hypotheses exchanges between agents. In a fully connected community, this protocol guarantees an agent’s hypothesis takes into account all the examples obtained by the community. Some sequential protocols add propagation to SMILE in order to extend this consistency guarantee to other connected networks. This thesis contribution to the artificial collective learning field is two fold.First, we investigate the influence of network structures on learning in networks when communication is limited to neighbourhood without further information propagation. Second, we present and analyze a new protocol, Waves, with SMILE’s guarantees and a more dynamic learning process thanks to its execution in parallel. The evaluation of this protocol in a simple turn-based setting gives the opportunity to improve it here in multiple ways. It is however meant to be used with online learning without any restriction on the acquisition rate of new examples, neither on speed nor number
APA, Harvard, Vancouver, ISO, and other styles
31

Caillaud, Bertrand. "Apprentissage de connaissances prosodiques pour la reconnaissance automatique de la parole." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0219.

Full text
Abstract:
Depuis plusieurs annees (pratiquement depuis le debut des travaux en reconnaissance automatique de la parole), de grands espoirs ont ete fondes sur l'utilisation de la prosodie en comprehension automatique de la parole, a la fois aux niveaux acoustico-phonetique et linguistiques. Certains de ces espoirs ne se sont pas concretises car le role de la prosodie se partage entre tous ces differents niveaux et son influence est difficile a isoler. Ce memoire presente les relations entre les traitements bases sur la prosodie et les autres processus de comprehension de la parole. Pour cela, notre approche s'est appuye sur des techniques d'apprentissage symbolique qui permettent de produire des fonctions de classification efficaces dont le formalisme de representation autorise ensuite leur interpretation par un expert humain. Nous avons donc pu etudier la faisabilite d'une voie de traitement basee sur la prosodie et, en particulier, evaluer l'utilisation de celle-ci pour la demarcation d'evenements lexicaux. Ces travaux ont conduit a l'integration d'une voie prosodique dans un systeme multi-agent pour la comprehension de la parole dont l'architecture est inspiree de theories issues des sciences cognitives.
APA, Harvard, Vancouver, ISO, and other styles
32

Paulin, Mathias. "Contributions à l'apprentissage automatique de réseau de contraintes et à la constitution automatique de comportements sensorimoteurs en robotique." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20064.

Full text
Abstract:
Le travail effectué dans la première partie de cette thèse s'attache à développer une version interactive de plate-forme d'acquisition automatique de réseau de contraintes CONACQ, capable de poser à l'utilisateur des questions dont le but est d'augmenter plus rapidement et de manière conséquente la connaissance de la plate-forme. Afin de limiter le nombre d'interactions, nous proposons différentes stratégies de questionnement que nous validons ensuite empiriquement. Dans la seconde partie, nous nous intéressons à une utilisation pratique de l'acquisition automatique de réseau de contraintes dans le domaine de la robotique. Notre approche utilise CONACQ pour modéliser automatiquement les actions élémentaires d'un robot sous la forme de réseaux de contraintes. Ces derniers sont ensuite combinés par planification pour définir automatiquement une séquence d'actions élémentaires dont l'exécution doit permettre au robot d'accomplir un comportement sensorimoteur
In the first part of this Ph. D. Thesis, we propose an interactive version of the constraint network acquisition platform CONACQ in which the system actively asks questions to the user in order to increase more rapidly and consistently the knowledge of the platform. We propose a number of algorithms for identifying good queries for acquiring constraint networks and our empirical studies show that using our techniques the number of examples required to acquire a constraint network is significantly reduced. In the second part, we are interested in a practical use of the automatic constraint network acquisition in Robotics. Our approach uses CONACQ in order to model automatically the elementary actions of a robot with constraint networks. These are then combined by planning in order to automatically define a sequence of elementary actions which must be executed by the robot to perform a sensorimotor behaviour
APA, Harvard, Vancouver, ISO, and other styles
33

Ferret, Olivier. "ANTHAPSI : un système d'analyse thématique et d'apprentissage de connaissances pragmatiques fondé sur l'amorçage." Phd thesis, Université Paris Sud - Paris XI, 1998. http://tel.archives-ouvertes.fr/tel-00189116.

Full text
Abstract:
Le système ANTHAPSI a été conçu dans le but d'apprendre de manière automatique des connaissances sur les situations prototypiques du monde à partir de textes. Afin que ce processus d'apprentissage soit le plus général possible, ANTHAPSI se place dans un cadre minimisant le recours à des connaissances pragmatiques fournies a priori. Pour mener sa tâche à bien, il met l'accent sur la nécessité d'associer étroitement l'analyse des textes, en l'occurrence une analyse de nature thématique, et l'apprentissage de connaissances. Cette association repose sur un modèle de mémoire spécifique, chargé de servir de trait d'union entre ces deux processus. Cette mémoire joue en effet le rôle de réceptacle actif pour les connaissances nécessaires au fonctionnement de l'analyse thématique, ces connaissances étant produites par le processus d'apprentissage à partir des représentations des textes construites par l'analyse thématique. De cette manière, l'association entre l'analyse des textes et l'apprentissage de connaissances permet de développer progressivement un noyau initial de connaissances et met en oeuvre par là même la première forme d'amorçage présente dans ANTHAPSI, appelée amorçage intra-niveau. ANTHAPSI explore également la façon dont ce noyau initial peut être constitué à partir d'un niveau de connaissances moins précises et moins structurées. Il est ainsi formé de deux composantes fonctionnellement similaires mais utilisant des connaissances et des représentations de niveaux différents : MLK applique les principes de l'amorçage intra-niveau en manipulant des représentations composées de graphes conceptuels tandis que ROSA le fait avec des représentations simplement composées de mots. L'amorçage inter-niveau montre en l'occurrence comment ROSA peut contribuer, au moins sur le plan thématique, à la mise en opération de MLK.
APA, Harvard, Vancouver, ISO, and other styles
34

Osório, Fernando Santos. "Inss : un système hybride neuro-symbolique pour l'apprentissage automatique constructif." Grenoble INPG, 1998. https://tel.archives-ouvertes.fr/tel-00004899.

Full text
Abstract:
Plusieurs méthodes ont été développées par l'Intelligence Artificielle pour reproduire certains aspects de l'intelligence humaine. Ces méthodes permettent de simuler les processus de raisonnement en s'appuyant sur les connaissances de base disponibles. Chaque méthode comporte des points forts, mais aussi des limitations. La réalisation de systèmes hybrides est une démarche courante Qui permet de combiner les points forts de chaque approche, et d'obtenir ainsi des performances plus élevées ou un champ d'application plus large. Un autre aspect très important du développement des systèmes hybrides intelligents est leur capacité d'acquérir de nouvelles connaissances à partir de plusieurs sources différentes et de les faire évoluer. Dans cette thèse, nous avons développé des recherches sur les systèmes hybrides neuro-symboliques, et en particulier sur l'acquisition incrémentale de connaissances à partir de connaissances théoriques (règles) et empiriques (exemples). Un nouveau système hybride, nommé système INSS - Incremental Neuro-Symbolic System, a été étudié et réalisé. Ce système permet le transfert de connaissances déclaratives (règles symboliques) d'un module symbolique vers un module connexionniste (réseau de neurones artificiel - RNA) à travers un convertisseur de règles en réseau. Les connaissances du réseau ainsi obtenu sont affinées par un processus d'apprentissage à partir d'exemples. Ce raffinement se fait soit par ajout de nouvelles connaissances, soit par correction des incohérences, grâce à l'utilisation d'un réseau constructif de type Cascade-Correlation. Une méthode d'extraction incrémentale de règles a été intégrée au système INSS, ainsi que des algorithmes de validation des connaissances qui ont permis de mieux coupler les modules connexionniste et symbolique. Le système d'apprentissage automatique INSS a été conçu pour l'acquisition constructive (incrémentale) de connaissances. Le système a été testé sur plusieurs applications, en utilisant des problèmes académiques et des problèmes réels (diagnostic médical, modélisation cognitive et contrôle d'un robot autonome). Les résultats montrent que le système INSS a des performances supérieures et de nombreux avantages par rapport aux autres systèmes hybrides du même type
Various Artificial Intelligence methods have been developed to reproduce intelligent human behaviour. These methods allow to reproduce some human reasoning process using the available knowledge. Each method has its advantages, but also some drawbacks. Hybrid systems combine different approaches in order to take advantage of their respective strengths. These hybrid intelligent systems also present the ability to acquire new knowledge from different sources and so to improve their application performance. This thesis presents our research in the field of hybrid neuro-symbolic systems, and in particular the study of machine learning tools used for constructive knowledge acquisition. We are interested in the automatic acquisition of theoretical knowledge (rules) and empirical knowledge (examples). We present a new hybrid system we implemented: INSS - Incremental Neuro-Symbolic System. This system allows knowledge transfer from the symbolic module to the connectionist module (Artificial Neural Network - ANN), through symbolic rule compilation into an ANN. We can refine the initial ANN knowledge through neural learning using a set of examples. The incremental ANN learning method used, the Cascade-Correlation algorithm, allows us to change or to add new knowledge to the network. Then, the system can also extract modified (or new) symbolic rules from the ANN and validate them. INSS is a hybrid machine learning system that implements a constructive knowledge acquisition method. We conclude by showing the results we obtained with this system in different application domains: ANN artificial problems(The Monk's Problems), computer aided medical diagnosis (Toxic Comas), a cognitive modelling task (The Balance Scale Problem) and autonomous robot control. The results we obtained show the improved performance of INSS and its advantages over others hybrid neuro-symbolic systems
APA, Harvard, Vancouver, ISO, and other styles
35

Hadj-Mabrouk, Habib. "Apprentissage automatique et acquisition des connaissances : deux approches complementaires pour les systèmes à base de connaissances : application au système Acasya d'aide à la certification des systèmes de transport automatisés." Valenciennes, 1992. https://ged.uphf.fr/nuxeo/site/esupversions/baee7687-792f-4762-b86e-586d4cbd0596.

Full text
Abstract:
Ce mémoire présente une contribution à l'amélioration des méthodes usuelles d'analyse de sécurité employées dans le cadre de la certification des systèmes de transport automatisés (sta). La mission des experts certificateurs consiste à apprécier le caractère sécuritaire d'un nouveau STA en évaluant la complétude des scenarios d'accidents envisag2s dans l'étude de sécurité du constructeur. La méthodologie d'aide 0 la certification développée repose sur l'utilisation conjointe et complémentaire de l'acquisition des connaissances et de l'apprentissage automatique. La méthode d'acquisition de connaissances choisie a montré son intérêt pour extraire et formaliser les connaissances historiques et la démarche générale d'analyse de sécurité. Pour exploiter les historiques et enrichir la base de connaissances de certification, notre étude s'est orientée vers l'utilisation des techniques d'apprentissage automatique. La difficulté de définir et choisir un système d'apprentissage adapté aux exigences d'une application industrielle nous a conduit à proposer une caractérisation du processus d'apprentissage. Acasya est l'environnement logiciel que nous avons développé pour supporter la méthodologie d'aide à la certification. Il est composé de deux modules principaux: Clasca et Evalsca, respectivement dédiés à la classification et à l'évaluation des scenarios d'accidents. Clasca, que nous avons entièrement conçu est un système d'apprentissage symbolique-numérique, inductif, incrémental, non monotone et interactif. Evalsca, développé autour du système d'apprentissage Charade a pour objectif de suggérer aux certificateurs d'éventuelles pannes non considérées par le constructeur et susceptibles de mettre en défaut la sécurité d'un nouveau STA. A ce jour, Acasya a prouvé l'intérêt de la méthodologie pour formaliser, exploiter et pérenniser le savoir-faire de l'expert certificateur.
APA, Harvard, Vancouver, ISO, and other styles
36

Ronceray, Lilian. "Méthodologies de réglage automatique temps-réel de lois de pilotage." Phd thesis, Toulouse, ISAE, 2009. http://tel.archives-ouvertes.fr/tel-00430820.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du réglage des lois de pilotage d'un avion de transport civil en phase de dévelop-pement. De par la représentativité limitée des modèles utilisés pour leur réglage initial, certaines lois de pilotages requièrent plusieurs itérations en essais en vol avant d'atteindre un niveau de performance satisfaisant. Il s'agit d'un processus long et coûteux que l'industriel cherche à raccourcir autant que possible. En partant du constat que les données issues des essais en vol sont peu utilisées par rapport aux modèles, nous avons élaboré des méthodologies permettant une exploitation utile de ces données à des fins de réglage de lois de commande. L'avion étant un système à paramètres variants, il faut alors tenir compte du fait que ces données ne sont valables que pour une petite région de son domaine de vol. Par conséquent, les modifications apportées sur les lois de commande, interpo-lées à l'aide des paramètres du domaine de vol, devront être répercutées uniquement dans cette petite région. Nous avons envisagé deux cas : celui d'un travail de retouche hors ligne (i.e. effectué en bureau d'études) et celui d'un réglage en ligne (i.e. directement sur l'avion pendant un vol d'essai). Ces deux aspects d'interpolation et de données locales nous ont fait choisir une méthode d'apprentissage locale pour interpoler les lois de commande. Il s'agit d'une forme de réseau de neurones appelée mélange d'experts dont la structure permet de diviser le domaine de vol en plusieurs sous-domaines et d'affecter à chacun d'eux une modélisation locale. Nous avons ensuite élaboré une méthodologie générique permettant de générer les données à interpoler, de définir la structure du mélange d'experts et d'effectuer son apprentis-sage à la fois dans un cadre hors ligne et en ligne. L'aspect génération de données constitue une part importante de la méthodologie. En effet, dans le cadre d'une loi de commande, l'obtention des données amenées à être interpolées n'est pas triviale. Nous proposons alors une méthode de synthèse basée sur l'inversion de données temporelles, pour le cas de lois feedforward. La structuration du mélange d'experts se compose du choix d'une subdivision optimale du domaine de vol, d'une sélection du type de la modélisation locale et de la gestion des pondérations affectées à chacun des modèles locaux. La méthodologie a fait l'objet de deux applications identifiées par Airbus comme reflétant le problème posé. La première concerne l'estimation du dérapage aérodynamique de l'avion et la seconde une loi feedforward de compensation d'aérofreins. Ces exemples montrent comment la méthode a permis de systématiser un processus de réglage fonctionnant jusque là « à tâtons » .
APA, Harvard, Vancouver, ISO, and other styles
37

Pomorski, Denis. "Apprentissage automatique symbolique/numérique : construction et évaluation d'un ensemble de règles à partir des données." Lille 1, 1991. http://www.theses.fr/1991LIL10117.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du thème : Analyse et Surveillance des Processus Industriels Complexes, développé au Laboratoire d'Automatique et d'Information Industrielle de Lille (LAIL-URA 1440). Nous considérons des systèmes pour lesquels aucun modèle de comportement n'est disponible. Leur surveillance passe alors par l'établissement d'un modèle statistique, élaboré à partir de l'analyse des données relevées sur le processus. Après avoir présenté deux systèmes (ID3 et INDUCE) très utilisés en apprentissage, nous caractérisons les propriétés (cohérence, complétude. . . ) d'un ensemble de règles obtenues par une procédure d'apprentissage, et nous proposons des critères permettant d'évaluer ces règles. Nous distinguons deux procédures de construction de règles plus générales: l'agrégation et le prolongement. Nous donnons, pour ces deux cas, des moyens d'évaluation des résultats obtenus reposant sur différentes hypothèses (monde clos, non contradiction, continuité). Nous proposons dès lors la construction d'un modèle explicatif par généralisation des règles constituant le modèle atomique (représentant le comportement déterministe du processus). Nous développons des méthodes d'induction utilisant une représentation globale (construction de partitions) basées sur un critère entropique (issu de la théorie de l'information), et une représentation locale (prise en compte de parties)
APA, Harvard, Vancouver, ISO, and other styles
38

Zribi, Abir. "Apprentissage par noyaux multiples : application à la classification automatique des images biomédicales microscopiques." Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0001.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de diagnostic assisté par ordinateur pour la localisation subcellulaire des protéines dans les images microscopiques. L'objectif est la conception et le développement d'un système de classification automatique permettant d'identifier le compartiment cellulaire dans lequel une protéine d'intérêt exerce son activité biologique. Afin de surmonter les difficultés rencontrées pour discerner les compartiments cellulaires présents dans les images microscopiques, les systèmes décrits dans la littérature proposent d'extraire plusieurs descripteurs associés à une combinaison de classifieurs. Dans cette thèse, nous proposons un schéma de classification différent répondant mieux aux besoins de généricité et de flexibilité pour traiter différentes bases d'images.Dans le but de fournir une caractérisation riche des images microscopiques, nous proposons un nouveau système de représentation permettant d'englober de multiples descripteurs visuels identifiés dans les différentes approches d'extraction de caractéristiques : locale, fréquentielle, globale et par région. Nous formulons ensuite le problème de fusion et de sélection des caractéristiques sous forme d'un problème de sélection de noyaux. Basé sur l'apprentissage de noyaux multiples (MKL), les tâches de sélection et de fusion de caractéristiques sont considérées simultanément. Les expériences effectuées montrent que la plateforme de classification proposée est à la fois plus simple, plus générique et souvent plus performante que les autres approches de la littérature. Dans le but d'approfondir notre étude sur l'apprentissage de noyaux multiples, nous définissons un nouveau formalisme d'apprentissage MKL réalisé en deux étapes. Cette contribution consiste à proposer trois termes régularisant liés à la résolution du problème d'apprentissage des poids associés à une combinaison linéaire de noyaux, problème reformulé en un problème de classification à vaste marge dans l'espace des couples. Le premier terme régularisant proposé assure une sélection parcimonieuse des noyaux. Les deux autres termes ont été conçus afin de tenir compte de la similarité entre les noyaux via une métrique basée sur la corrélation. Les différentes expérimentations réalisées montrent que le formalisme proposé permet d'obtenir des résultats de même ordre que les méthodes de référence, mais offrant l'avantage d'utiliser moins de fonctions noyaux
This thesis arises in the context of computer aided analysis for subcellular protein localization in microscopic images. The aim is the establishment of an automatic classification system allowing to identify the cellular compartment in which a protein of interest exerts its biological activity. In order to overcome the difficulties in attempting to discern the cellular compartments in microscopic images, the existing state-of-art systems use several descriptors to train an ensemble of classifiers. In this thesis, we propose a different classification scheme wich better cope with the requirement of genericity and flexibility to treat various image datasets. Aiming to provide an efficient image characterization of microscopic images, a new feature system combining local, frequency-domain, global, and region-based features is proposed. Then, we formulate the problem of heterogeneous feature fusion as a kernel selection problem. Using multiple kernel learning, the problems of optimal feature sets selection and classifier training are simultaneously resolved. The proposed combination scheme leads to a simple and a generic framework capable of providing a high performance for microscopy image classification. Extensive experiments were carried out using widely-used and best known datasets. When compared with the state-of-the-art systems, our framework is more generic and outperforms other classification systems. To further expand our study on multiple kernel learning, we introduce a new formalism for learning with multiple kernels performed in two steps. This contribution consists in proposing three regularized terms with in the minimization of kernels weights problem, formulated as a classification problem using Separators with Vast Margin on the space of pairs of data. The first term ensures that kernels selection leads to a sparse representation. While the second and the third terms introduce the concept of kernels similarity by using a correlation measure. Experiments on various biomedical image datasets show a promising performance of our method compared to states of art methods
APA, Harvard, Vancouver, ISO, and other styles
39

Grivolla, Jens. "Apprentissage et décision automatique en recherche documentaire : prédiction de difficulté de requêtes et sélection de modèle de recherche." Avignon, 2006. http://www.theses.fr/2006AVIG0142.

Full text
Abstract:
Cette thèse se situe dans la problématique de la recherche documentaire. Dans ce domaine, chaque besoin en information est exprimé par un utilisateur sous la forme d'une requête en langage naturel. Il existe différentes approches pour traiter ces requêtes, mais les systèmes actuels utilisent généralement une méthode unique, indépendante des caractéristiques de la requête. On peut pourtant montrer de façon expérimentale que la performance relative d'une technique de recherche sur une autre peut varier considérablement suivant la requête traitée. Nous avons abordé cette thématique en proposant des méthodes qui permettent de repérer automatiquement les requêtes qui posent des difficultés particulières au système utilisé, afin de permettre un traitement spécifique et adapté. Nous avons ainsi dégagé un certain nombre de fonctions de prédiction de qualité qui obtiennent des résultats comparables à ceux publiés récemment par d'autres équipes de recherche. La particularité et originalité de ce travail a consisté à étudier la combinaison de ces différentes mesures. En utilisant des méthodes de classification automatique, nous avons obtenu des prédictions relativement fiables sur la base de mesures qui individuellement ont un pouvoir de discrimination considérablement plus faible. Au-delà de la prédiction de difficulté des requêtes, nous avons utilisé nos méthodes pour adapter le processus de recherche à la requête posée
This thesis is centered around the subject of information retrieval, with a focus on those queries that are particularly difficult to handle for current retrieval systems. In the application and evaluation settings we were concerned with, a user expresses his information need as a natural language query. There are different approaches for treating those queries, but current systems typically use a single approach for all queries, without taking into account the specific properties of each query. However, it has been shown that the performance of one strategy relative to another can vary greatly depending on the query. We have approached this problem by proposing methods that will permit to automatically identify those queries that will pose particular difficulties to the retrieval system, in order to allow for a specific treatment. This research topic was very new and barely starting to be explored at the beginning of my work, but has received much attention these last years. We have developed a certain number of quality predictor functions that obtain results comparable to those published recently by other research teams. However, the ability of individual predictors to accurately classify queries by their level of difficulty remains rather limited. The major particularity and originality of our work lies in the combination of those different measures. Using methods of automatic classification with corpus-based training, we have been able to obtain quite reliable predictions, on the basis of measures that individually are far less discriminant. We have also adapted our approach to other application settings, with very encouraging results. We have thus developed a method for the selective application of query expansion techniques, as well as the selection of the most appropriate retrieval model for each query
APA, Harvard, Vancouver, ISO, and other styles
40

Sandoz, Françoise. "Contribution à la modélisation de l'apprentissage en situation de résolution de problèmes : proposition d'un système cognitif permettant l'apprentissage." Besançon, 1993. http://www.theses.fr/1993BESA2012.

Full text
Abstract:
Les travaux présentés dans cette thèse sont une contribution à l'étude de l'apprentissage en situation de résolution de problèmes. L'objectif, qui a motivé ces travaux, a été de réaliser un système capable d'établir un diagnostic à partir des connaissances en vue d'améliorer les diagnostics futurs. Notre proposition repose sur une modélisation des connaissances permettant l'apprentissage. Des différentes théories de l'apprentissage étudiées au chapitre I, il ressort qu'il est nécessaire d'étudier l'ensemble du système cognitif en vue de permettre l'apprentissage. Nous présentons alors, au chapitre II, l'apprentissage selon une approche systémique. En particulier, nous structurons la connaissance en schémas de connaissances correspondant aux diverses fonctionnalités nécessaires à l'apprentissage. Le chapitre III propose un système cognitif permettant l'apprentissage. Ce système est défini, d'une part, par les mécanismes de résolution caractérisés par les activités de stratégie, compréhension, interprétation, analyse, évaluation et d'autre part, par un processus de synthétisation qui caractérise le problème à un niveau conceptuel supérieur à son niveau d'expression initial. Dans le dernier chapitre, nous présentons une application de notre système cognitif en matière de classification de la clientèle.
APA, Harvard, Vancouver, ISO, and other styles
41

Thomas, Vincent. "Proposition d'un formalisme pour la construction automatique d'interactions dans les systèmes multi-agents réactifs." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011094.

Full text
Abstract:
Cette thèse traite de la conception de système multi-agents. Elle se focalise sur des approches formelles et s'est donné pour objectif à long terme de construire de manière automatique et décentralisée les comportements d'agents coopératifs devant résoudre collectivement un problème. Ce travail a cherché à proposer des méthodes pour construire les comportements d'agents sociaux, capables de prendre en compte à l'exécution la présence d'autres agents dans le système.

Les formalismes existants comme les DEC-POMDPs parviennent à représenter des problèmes multi-agents mais ne représentent pas au niveau individuel la notion d'interaction fondamentale dans les systèmes collectifs. Ceci induit une complexité algorithmique importante dans les algorithmes de résolution. Afin de donner aux agents la possibilité d'appréhender la présence d'autres agents et de structurer de manière implicite les systèmes multi-agents, cette thèse propose un formalisme original, l'interac-DEC-POMDP inspiré des DEC-POMDPs et d'Hamelin, une simulation développée au cours de cette thèse et issue d'expériences conduites en éthologie. La spécificité de ce formalisme réside dans la capacité offerte aux agents d'interagir directement et localement entre eux. Cette possibilité permet des prises de décision à un niveau intermédiaire entre des décisions globales impliquant l'ensemble des agents et des décisions purement individuelles.

Nous avons proposé en outre un algorithme décentralisé basé sur des techniques d'apprentissage par renforcement et une répartition heuristique des gains des agents au cours des interactions. Une démarche expérimentale nous a permis de valider sa capacité à produire pour des restriction du formalisme des comportements collectifs pertinents adaptatifs sans qu'aucun agent ne dispose d'une vue globale du système.
APA, Harvard, Vancouver, ISO, and other styles
42

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0084/document.

Full text
Abstract:
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
APA, Harvard, Vancouver, ISO, and other styles
43

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.
The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
44

Halluin, Cyrille d'. "Apprentissage PAC par exemples simples : plate-forme d'apprentissage de langages réguliers." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-105.pdf.

Full text
Abstract:
L'apprentissage est le processus par lequel un systeme (naturel ou non) acquiert de nouvelles connaissances. L'apprentissage automatique (machine learning) a pour objectif de creer des systemes artificiels ayant cette capacite d'apprendre, c'est-a-dire capable de traiter de nouvelles donnees sans avoir a programmer explicitement ce traitement. Plus precisement, il s'agit de definir des modeles theoriques d'apprentissage formalisant les idees intuitives que l'on a de l'apprentissage naturel, puis de prouver l'apprenabilite de classes de concepts dans de tels modeles. L'objet de cette these est double. Dans un premier temps, nous proposons un nouveau modele theorique d'apprentissage appele modele pacs. Ce modele est base sur le modele pac propose par valiant. Il a pour originalite de favoriser l'utilisation d'exemples simples par rapport a la cible lors de la phase d'apprentissage. Cet assouplissement du modele pac permet de montrer l'apprenabilite de classes non prouvees apprenables dans le modele de valiant (classe des formules dnf, classe des langages k-reversibles). Ensuite, nous presentons la conception et l'implantation d'une bibliotheque generique, appelee , pour la creation d'applications d'experimentations de modeles et d'algorithmes d'apprentissage dans des contextes particuliers (tels que celui des langages reguliers ou encore des formules booleennes). De telles applications devraient permettre aux chercheurs de confirmer ou d'infirmer des idees intuitives ou bien encore de decouvrir de nouvelles proprietes et ce, de maniere empirique. Nous presentons un exemple d'application, construite au moyen de la librairie pour l'etude d'algorithmes d'inference grammaticale (c'est-a-dire dans le contexte particulier des langages reguliers).
APA, Harvard, Vancouver, ISO, and other styles
45

Servan, Christophe. "Apprentissage automatique et compréhension dans le cadre d'un dialogue homme-machine téléphonique à initiative mixte." Phd thesis, Université d'Avignon, 2008. http://tel.archives-ouvertes.fr/tel-00591997.

Full text
Abstract:
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d'avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s'agit, d'abord, de trouver la meilleure hypothèse de reconnaissance puis d'appliquer un processus de compréhension. L'approche proposée dans cette thèse est de conserver l'espace de recherche probabiliste tout au long du processus de compréhension en l'enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d'évaluation MEDIA. Nous montrons l'intérêt de notre approche par rapport à l'approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d'erreurs sur les mots (WER). Cependant nous montrons qu'une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu'une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d'évaluation que lors de la campagne MEDIA. Il s'agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d'évaluation. L'étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d'une part, le taux d'erreur d'interprétation et, d'autre part, le taux d'erreur mots de la reconnaissance de la parole, la taille du corpus d'apprentissage, ainsi que l'ajout de connaissance a priori aux modèles de compréhension. Une analyse d'erreurs montre l'intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d'utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s'appliquant sur la présence d'éléments déclencheurs (mots ou concepts) en fonction de l'historique. On présente les méthodes à base de d'apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d'apprentissage. En modifiant la taille du corpus d'apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l'apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l'apprentissage des modèles de langages conceptuels à partir de laquelle les scores d'évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l'apprentissage et la taille de corpus afin de valider le guide d'annotations. En effet, il semble, dans notre cas de l'évaluation MEDIA, qu'il ait fallu sensiblement le même nombre d'exemple pour, d'une part, valider l'annotation sémantique et, d'autre part, obtenir un modèle stochastique " de qualité " appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d'apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l'ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d'un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d'appel. La problématique de cette tâche est le manque de données d'apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l'intérêt d'intégrer une tâche de classification d'appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d'apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d'obtenir des taux de classification d'appels encourageants sur le corpus de test, alors que le WER est assez élevé. L'application des méthodes développées lors de la campagne MEDIA nous permet d'améliorer la robustesse du processus de routage d'appels.
APA, Harvard, Vancouver, ISO, and other styles
46

Pradel, Bruno. "Evaluation des systèmes de recommandation à partir d'historiques de données." Paris 6, 2013. http://www.theses.fr/2013PA066263.

Full text
Abstract:
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
APA, Harvard, Vancouver, ISO, and other styles
47

Dupas, Rémy. "Apport des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance industrielle." Valenciennes, 1990. https://ged.uphf.fr/nuxeo/site/esupversions/7ab53b01-cdfb-4932-ba60-cb5332e3925a.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes d'apprentissages symbolique automatique en vue de leurs applications dans le domaine de la maintenance industrielle. Plus précisément, l'apport des méthodes d'apprentissage inductives basées sur la recherche de similarités entre exemples est envisagé à deux niveaux distincts. Le premier niveau concerne le domaine de la maintenance corrective. L'approche présentée aborde le développement et la mise en œuvre d'un module d'acquisition automatique de connaissance de surface pour le système expert de diagnostic technique Sediag. Ce module basé sur l'utilisation du système inductif Charade, engendre un système de règles à partir des informations mémorisées au cours des sessions de diagnostic antérieures. Le second niveau d'aide, relatif à la maintenance préventive aborde la conception d'un système à base de connaissance dédié à l'exploitation de la base de données des historiques de maintenance. Cette approche repose sur l'association de deux types de connaissances. Le premier est la connaissance induite par le module d'apprentissage à partir de la base de données. La connaissance générale d'experts en maintenance préventive constitue le second type de connaissance utilisé. Le système ainsi réalisé permet d'automatiser l'exploitation des historiques de maintenance et de fournir des conseils de prévention dont l'objectif est d'accroitre l'efficacité de cette maintenance. Enfin, est proposée une architecture intégrée de système à base de connaissance utilisant des méthodes d'apprentissage symbolique automatique pour l'aide à la maintenance corrective et préventive.
APA, Harvard, Vancouver, ISO, and other styles
48

Dzogang, Fabon. "Représentation et apprentissage à partir de textes pour des informations émotionnelles et pour des informations dynamiques." Paris 6, 2013. http://www.theses.fr/2013PA066253.

Full text
Abstract:
L'extraction de connaissances automatique à partir de textes consiste àmettre en correspondance une information bas niveau, extraite desdocuments au travers des mots et des groupes de mots, avec uneinformation de plus haut niveau. Les choix de représentation pourdécrire les documents sont alors essentiels et leurs particularitéscontraignent la définition de l'algorithme d'apprentissage mis enoeuvre. Les travaux de cette thèse considèrent ces deux problématiquesd'une part pour des informations émotionnelles, d'autre part pour desinformations dynamiques. Dans une première partie, nous considérons une tâche d'extraction desémotions pour laquelle le fossé sémantique est plus important que pourdes informations traditionnellement thématiques. Aussi, nous étudionsdes représentations destinées à capturer les nuances du langage pourdécrire une information subjective puisque émotionnelle. Nous étudionsde plus l'intégration de connaissances sémantiques qui permettent, dans unetâche de caractérisation, d'extraire la charge émotionnelle desdocuments, dans une tâche de prédiction de guider l'apprentissageréalisé. Dans une seconde partie, nous étudions la dynamique de l'information :à tout corpus de documents publié sur Internet peut être associé dessources en perpétuelle activité qui échangent des informations dansun mouvement continu. Nous explorons trois axes d'étude : les sourcesidentifiées, les communautés qu'elles forment dans un espace dynamiquetrès parcimonieux, et les thématiques remarquables qu'ellesdéveloppent. Pour chacun nous proposons des méthodes d'extractionoriginales que nous mettons en oeuvre sur un corpus réel collecté encontinu sur Internet
Automatic knowledge extraction from texts consists in mapping lowlevel information, as carried by the words and phrases extracted fromdocuments, to higher level information. The choice of datarepresentation for describing documents is, thus, essential and thedefinition of a learning algorithm is subject to theirspecifics. This thesis addresses these two issues in the context ofemotional information on the one hand and dynamic information on theother. In the first part, we consider the task of emotion extraction forwhich the semantic gap is wider than it is with more traditionalthematic information. Therefore, we propose to study representationsaimed at modeling the many nuances of natural language used fordescribing emotional, hence subjective, information. Furthermore, wepropose to study the integration of semantic knowledge which provides,from a characterization perspective, support for extracting theemotional content of documents and, from a prediction perspective,assistance to the learning algorithm. In the second part, we study information dynamics: any corpus ofdocuments published over the Internet can be associated to sources inperpetual activity which exchange information in a continuousmovement. We explore three main lines of work: automaticallyidentified sources; the communities they form in a dynamic and verysparse description space; and the noteworthy themes they develop. Foreach we propose original extraction methods which we apply to a corpusof real data we have collected from information streams over the Internet
APA, Harvard, Vancouver, ISO, and other styles
49

Kraus, Vivien. "Apprentissage semi-supervisé pour la régression multi-labels : application à l’annotation automatique de pneumatiques." Thesis, Lyon, 2021. https://tel.archives-ouvertes.fr/tel-03789608.

Full text
Abstract:
Avec l’avènement et le développement rapide des technologies numériques, les données sont devenues à la fois un bien précieux et très abondant. Cependant, avec une telle profusion, se posent des questions relatives à la qualité et l’étiquetage de ces données. En effet, à cause de l’augmentation des volumes de données disponibles, alors que le coût de l’étiquetage par des experts humains reste très important, il est de plus en plus nécessaire de pouvoir renforcer l’apprentissage semi-supervisé grâce l’exploitation des données nonlabellisées. Ce problème est d’autant plus marqué dans le cas de l’apprentissage multilabels, et en particulier pour la régression, où chaque unité statistique est guidée par plusieurs cibles différentes, qui prennent la forme de scores numériques. C’est dans ce cadre fondamental, que s’inscrit cette thèse. Tout d’abord, nous commençons par proposer une méthode d’apprentissage pour la régression semi-supervisée, que nous mettons à l’épreuve à travers une étude expérimentale détaillée. Grâce à cette nouvelle méthode, nous présentons une deuxième contribution, plus adaptée au contexte multi-labels. Nous montrons également son efficacité par une étude comparative, sur des jeux de données issues de la littérature. Par ailleurs, la dimensionnalité du problème demeure toujours la difficulté de l’apprentissage automatique, et sa réduction suscite l’intérêt de plusieurs chercheurs dans la communauté. Une des tâches majeures répondant à cette problématique est la sélection de variables, que nous proposons d’étudier ici dans un cadre complexe : semi-supervisé, multi-labels et pour la régression
With the advent and rapid growth of digital technologies, data has become a precious asset as well as plentiful. However, with such an abundance come issues about data quality and labelling. Because of growing numbers of available data volumes, while human expert labelling is still important, it is more and more necessary to reinforce semi-supervised learning with the exploitation of unlabeled data. This problem is all the more noticeable in the multi-label learning framework, and in particular for regression, where each statistical unit is guided by many different targets, taking the form of numerical scores. This thesis focuses on this fundamental framework. First, we begin by proposing a method for semi-supervised regression, that we challenge through a detailed experimental study. Thanks to this new method, we present a second contribution, more fitted to the multi-label framework. We also show its efficiency with a comparative study on literature data sets. Furthermore, the problem dimension is always a pain point of machine learning, and reducing it sparks the interest of many researchers. Feature selection is one of the major tasks addressing this problem, and we propose to study it here in a complex framework : for semi-supervised, multi-label regression. Finally, an experimental validation is proposed on a real problem about automatic annotation of tires, to tackle the needs expressed by the industrial partner of this thesis
APA, Harvard, Vancouver, ISO, and other styles
50

Olaru, Andrei. "Un système multi-agents sensible au contexte pour les environnements d'intelligence ambiante." Paris 6, 2011. http://www.theses.fr/2011PA066639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography