Dissertations / Theses on the topic 'Apprentissage de règles à des PLM'

To see the other types of publications on this topic, follow the link: Apprentissage de règles à des PLM.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage de règles à des PLM.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ahmadi, Naser. "A framework for the continuous curation of a knowledge base system." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS320.

Full text
Abstract:
Les graphes de connaissances centrés sur les entités sont de plus en plus populaires pour recueillir des informations sur les entités. Les schémas des KG sont complexes, avec de nombreux types et prédicats différents pour définir les entités et leurs relations. Ces KG contiennent des connaissances spécifiques à un domaine, mais pour tirer le maximum de ces données, il faut comprendre la structure et les schémas du KG. Leurs données comprennent des entités et leurs types sémantiques pour un domaine spécifique. En outre, les propriétés des entités et les relations entre les entités sont stockées. En raison de l'émergence de nouveaux faits et entités et de l'existence de déclarations invalides, la création et la maintenance des KG est un processus sans fin. Dans cette thèse, nous présentons d'abord une approche destinée à créer un KG dans le domaine de l'audit en faisant correspondre des documents de différents niveaux. Nous introduisons ensuite des méthodes pour la curation continue des KGs. Nous présentons un algorithme pour la fouille des règles conditionnelles et l'appliquons sur de grands KGs. Ensuite, nous décrivons RuleHub, un corpus extensible de règles pour les KGs publiques qui fournit des fonctionnalités pour l'archivage et la récupération des règles. Nous proposons également des méthodes pour l'exploitation des règles logiques dans deux applications différentes: l'apprentissage de règles souples à des modèles de langage pré-entraînés (RuleBert) et la vérification explicable des faits (ExpClaim)
Entity-centric knowledge graphs (KGs) are becoming increasingly popular for gathering information about entities. The schemas of KGs are semantically rich, with many different types and predicates to define the entities and their relationships. These KGs contain knowledge that requires understanding of the KG’s structure and patterns to be exploited. Their rich data structure can express entities with semantic types and relationships, oftentimes domain-specific, that must be made explicit and understood to get the most out of the data. Although different applications can benefit from such rich structure, this comes at a price. A significant challenge with KGs is the quality of their data. Without high-quality data, the applications cannot use the KG. However, as a result of the automatic creation and update of KGs, there are a lot of noisy and inconsistent data in them and, because of the large number of triples in a KG, manual validation is impossible. In this thesis, we present different tools that can be utilized in the process of continuous creation and curation of KGs. We first present an approach designed to create a KG in the accounting field by matching entities. We then introduce methods for the continuous curation of KGs. We present an algorithm for conditional rule mining and apply it on large graphs. Next, we describe RuleHub, an extensible corpus of rules for public KGs which provides functionalities for the archival and the retrieval of rules. We also report methods for using logical rules in two different applications: teaching soft rules to pre-trained language models (RuleBert) and explainable fact checking (ExpClaim)
APA, Harvard, Vancouver, ISO, and other styles
2

Ducellier, Guillaume. "Gestion de règles expertes en ingénierie collaborative : applications aux plateformes PLM." Troyes, 2008. http://www.theses.fr/2008TROY0008.

Full text
Abstract:
Les travaux de thèse traitent de l’enrichissement des méthodes traditionnelles de gestion du cycle de vie des produits par une approche intégrant la gestion de paramètres et de règles métiers. L’objectif de cette approche est de renforcer les liens existant entre les différentes données techniques décrivant le produit. Nous proposons un cadre méthodologique adapté à la définition et à la gestion des paramètres d’un produit dans une plateforme de Product Lifecycle Management (PLM). Ce cadre s’articule autour de trois composantes qui sont la plateforme PLM, les logiciels métiers et l’application de gestion proposée. Celle-ci offre un panel de fonctionnalités pour faciliter la récupération, la gestion et la réutilisation de paramètres et de règles issus ou associés de données techniques. Ces fonctionnalités permettent de mieux appréhender les liens existant entre les données techniques et les caractéristiques fonctionnels du produit. A partir de ce cadre méthodologique, nous développons un démonstrateur logiciel synthétisant notre approche. Quatre modules informatiques sont spécifiés via la définition de scénarii d’utilisation. Notre approche est illustrée par la conduite d’un scénario global intégrant des données techniques issues d’un projet de conception. Ce scénario met en lumière les avantages et les difficultés liés à l’utilisation de notre approche dans un contexte appliqué. Nous décrivons pour finir les perspectives de nos travaux
Product Lifecycle Management (PLM) facilitates the creation, change and sharing of product data through the various phases of its definition. However, PLM platforms are based on IT support enabling the data exchange rather than the exchange of information. The proposed approach aims to enhance PLM platform functionalities via interactive product information exchanges (parameters and rules). Parameters and rules are largely used within product data for specifying configurable product. The proposal is to develop some facilities for parameters and rules management integrated to PLM platform for improving the information exchange. The parameters set in the PLM platforms are used by the designer to create product data. The approach enables the definition of parameter sets that describe relevant information on the product definition within the PLM platform. Rules created result from the relations between parameters. Finally, links associate product data that use the same parameters. This tends to formalize relations between parameters and product data in a PLM. In order to enable the implementation of the proposed approach, scenarios have been specified to clarify the various required functionalities. Based on these scenarios, an IT-demonstrator integrated to a PLM platform has been developed. The final results are discussed through the definition of a study case and perspectives are presented
APA, Harvard, Vancouver, ISO, and other styles
3

Bannour, Sondes. "Apprentissage interactif de règles d'extraction d'information textuelle." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD113/document.

Full text
Abstract:
L’Extraction d’Information est une discipline qui a émergé du Traitement Automatique des Langues afin de proposer des analyses fines d’un texte écrit en langage naturel et d’améliorer la recherche d’informations spécifiques. Les techniques d’extraction d’information ont énormément évolué durant les deux dernières décennies.Les premiers systèmes d’extraction d’information étaient des systèmes à base de règles écrites manuellement. L’écriture manuelle des règles étant devenue une tâche fastidieuse, des algorithmes d’apprentissage automatique de règles ont été développés.Ces algorithmes nécessitent cependant la rédaction d’un guide d’annotation détaillé, puis l’annotation manuelle d’une grande quantité d’exemples d’entraînement. Pour minimiser l’effort humain requis dans les deux familles d’approches de mise au point de règles, nous avons proposé, dans ce travail de thèse, une approche hybride qui combine les deux en un seul système interactif qui procède en plusieurs itérations.Ce système que nous avons nommé IRIES permet à l’utilisateur de travailler de manière duale sur les règles d’extraction d’information et les exemples d’apprentissage.Pour mettre en place l’approche proposée, nous avons proposé une chaîne d’annotation linguistique du texte et l’utilisation d’un langage de règles expressif pour la compréhensibilité et la généricité des règles écrites ou inférées, une stratégie d’apprentissage sur un corpus réduit pour ne pas discriminer les exemples positifs non encore annotés à une itération donnée, la mise en place d’un concordancier pour l’écriture de règles prospectives et la mise en place d’un module d’apprentissage actif(IAL4Sets) pour une sélection intelligente d’exemples.Ces propositions ont été mises en place et évaluées sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Une étude de différentes combinaisons de traits linguistiques utilisés dans les expressions des règles a permis de voir l’impactde ces traits sur les performances des règles. L’apprentissage sur un corpus réduit a permis un gain considérable en temps d’apprentissage sans dégradationde performances. Enfin, le module d’apprentissage actif proposé (IAL4Sets) a permis d’améliorer les performances de l’apprentissage actif de base de l’algorithme WHISK grâce à l’introduction de la notion de distance ou de similarité distributionnelle qui permet de proposer à l’utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts
Non communiqué
APA, Harvard, Vancouver, ISO, and other styles
4

Chevaleyre, Yann. "Apprentissage de règles à partir de données multi-instances." Paris 6, 2001. http://www.theses.fr/2001PA066502.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nakoula, Yassar. "Apprentissage des modèles linguistiques flous, par jeu de règles pondérées." Chambéry, 1997. http://www.theses.fr/1997CHAMS018.

Full text
Abstract:
L'utilisation d'une formulation purement mathématique s'avère souvent lourde, voire difficilement exploitable pour la modélisation des systèmes complexes. Les modèles linguistiques flous (ou modèles de Mamdani) sont quant à eux intéressants de par leur pouvoir explicatif dû à l'utilisation de variables linguistiques, mais aussi par le fait qu'ils offrent la possibilité d'inclure des connaissances humaines exprimées sous forme de règles linguistiques. L'apprentissage de ce type de modèles est en général effectué en divisant le processus d'apprentissage en deux sous-problèmes qui sont résolus indépendamment : la construction des sous-ensembles flous de référence, d'une part, la détermination de la base de règles, d'autre part. Cependant, de par la haute dépendance entre la discrétisation floue et la génération de la base de règles, la division de la stratégie d'apprentissage peut mener à des modèles inappropriés ou non optimaux. Dans ce contexte, nous avons développé une solution alternative d'apprentissage de modèles linguistiques à partir de données numériques. L'idée est d'améliorer la stratégie d'apprentissage en effectuant simultanément la partition floue et la génération des règles. Le principe de l'algorithme d'apprentissage proposé consiste en améliorations successives du modèle en ajoutant à la fois de nouveaux symboles et de nouvelles règles jusqu'à trouver un modèle suffisamment proche du système réel. Cette méthode a été testée sur plusieurs exemples d'approximation de fonctions, de modélisation de systèmes dynamiques et de prédiction de séries temporelles.
APA, Harvard, Vancouver, ISO, and other styles
6

Hoarau, Martine. "Apprentissage implicite et vieillissement : étude de l'acquisition incidente de règles." Montpellier 3, 2003. http://www.theses.fr/2003MON30003.

Full text
Abstract:
Dans ce travail, les performances de sujets jeunes et âgés sont comparées dans des conditions d'apprentissage implicite et explicite en tenant compte de la nature du matériel (visuo-spatiale vs verbale) et du niveau de traitement (associatif vs inférentiel) requis par la tâche. L'hypothèse du déclin des ressources de traitement avec l'âge suppose d'observer chez les sujets âgés (i) un meilleur apprentissage en condition implicite qu'en condition explicite et (ii) un meilleur apprentissage avec les tâches de type associatif qu'avec les tâches de type inférentiel. L'hypothèse d'une différence de préservation des capacités visuo-spatiales et verbales avec l'âge suppose que les sujets âgés traitent mieux les tâches verbales que les tâches visuo-spatiales. Les résultats indiquent un effet de la nature du matériel et du niveau de traitement et non de la condition d'apprentissage, suggérant à la fois un déficit global des ressources et de certains types de traitement avec l'âge
In this study, we compared old and young subjects performance in implicit and explicit learning conditions. We presented tasks which differ in the nature of the material (verbal vs visuo-spatial) and the level of processing (associative vs inferential) required to perform the tasks. First, the hypothesis of the reduction of attentional resources with age suggest that the elderly subjects (i) would perform better in implicit than in explicit learning condition and (ii) would perform better the associative than the inferential tasks. Second, the hypothesis of a decline of visuospatial abilities and a preservation of verbal abilities with age suggest that the elderly would perform better the verbal than the visuospatial tasks. The results indicate the effects of the nature of the material and of the level of processing, but no effect of the learning condition. Theses results suggest that aging leads both to the deficit of global resources and to the decline of specific type of processing
APA, Harvard, Vancouver, ISO, and other styles
7

Monfardini, Elisabetta. "L' apprentissage social de règles chez l'homme et le singe." Aix-Marseille 2, 2009. http://www.theses.fr/2009AIX22026.

Full text
Abstract:
Beaucoup de nos comportements quotidiens sont guidés par des règles (ex : arrêt si le feu est rouge). Ces règles, associations arbitraires entre des stimuli et des actions, doivent être apprises. Nous pouvons les apprendre seuls, par essais et erreurs, ou, à moindre coût, par observation d’autrui. La transmission sociale de règles, bien que cruciale pour toute espèce grégaire, n’a été que peu étudiée et ses bases neuronales restent inexplorées. Mon travail de thèse inaugure une approche neuroscientifique de cette forme d’apprentissage. Deux questions sont abordées: 1. L’apprentissage social de règles repose-t-il sur les mêmes bases neuronales que l’apprentissage individuel chez l’homme? 2. Le singe macaque rhésus, modèle clé pour les neurosciences, mais réputé piètre imitateur en psychologie comparée, peut-il être un modèle animal adéquat pour explorer la façon dont le cerveau apprend des autres?Le premier volet de ma thèse comporte deux études en IRMf chez des volontaires humains sains. Il révèle un réseau cérébral commun au rappel de règles, qu’elles aient été apprises par essai et erreur ou par observation, ainsi qu’une même dynamique d’activation pendant l’apprentissage individuel ou social. Le deuxième volet consiste en trois études comportementales chez le macaque rhésus. Il confirme la validité de ce modèle animal en montrant a) la capacité spontanée de cette espèce à tirer profit de l’observation d’un congénère confronté à de nouvelles règles, b) sa surprenante tendance à mieux apprendre des erreurs d’autrui que de ses propres erreurs, c) son aptitude à apprendre aussi d’un humain
Most of our everyday behaviours are guided by conventional rules (‘red traffic light means stop'). These rules, based on arbitrary associations between stimuli and actions, must be learned. We can learn them individually, by trial and error, or, at a lower cost, via observation of others. The social transmission of rules, despite its importance for any gregarious animal species, has seldom been studied and it neural bases remain unexplored. My thesis inaugurates a neuroscience approach of social rule learning. Two main questions are addressed: 1. Is social rule learning based on the same neural bases as individual rule learning in humans? 2. Can the rhesus macaque, a crucial model for neuroscience but considered as a poor imitator by comparative psychologists, be a suitable animal model to explore how the brain learns from others? The first part of my experimental contribution includes two fMRI studies on healthy human volunteers. It demonstrates the existence of a common brain network for the recall of rules, whether learned by trial and error or by observation, as well as similar brain activation dynamics during individual and social learning. The second part consists of three behavioural studies in rhesus monkeys. It confirms the validity of this animal model regarding imitation by revealing a) a spontaneous tendency of this species to observe and take advantage of a conspecific struggling with new rules, b) an interesting propensity to learn more from others' errors than from its own, and c) an ability to learn not only from conspecifics but also from humans
APA, Harvard, Vancouver, ISO, and other styles
8

Burg, Bernard. "Apprentissage de règles de comportement destinées au contrôle d'un système." Paris 11, 1988. http://www.theses.fr/1988PA112375.

Full text
Abstract:
Les systèmes de contrôle de processus sont confrontés à des applications de plus en plus complexes à appréhender. Il semble intéressant, par exemple dans le cadre de l'étude des phénomènes mal ou peu modélisés, d'avoir recours à des techniques d'informatique symbolique pour profiter de leur souplesse d'utilisation. Ainsi fut développé un système de contrôle de processus à base de règles de comportement, la principale difficulté consiste alors à acquérir ces règles. Sa résolution a nécessité l'utilisation conjointe de plusieurs techniques, respectivement les techniques numériques d'analyses de données pour débruiter et réduire la dimensionnalité de l'espace d'états, puis des techniques structurelles pour transcrire l'aspect temporel, modéliser les structures sous-jacentes et finalement des techniques d'apprentissage symbolique automatique pour trouver des regroupements conceptuels, généraliser et extrapoler les connaissances acquises. L'ensemble de ces techniques est mis en œuvre par des techniques d'intelligence artificielle analysant les résultats de chaque phase grâce à des critères généraux décrivant conceptuellement chaque technique, ses résultats escomptés et génère des plans d'actions pour guider l'apprentissage. Trois techniques d'apprentissage sont utilisées : la première part de points de mesure du phénomène qu'elle utilise dans une démarche inductive, elle confère une notion de complétude au jeu de règles. La seconde part d'un modèle flou du phénomène à contrôler qu'elle met en œuvre dans un apprentissage déductif, elle apporte la cohérence en intégrant les connaissances des experts. Enfin, les règles de comportement issues de ces approches sont utilisées et affinées dans un apprentissage en interaction avec l'environnement. Le programme CANDIDE a vu deux domaines d'application : le contrôle en vitesse d'un moteur en courant continu et la conduite automobile
Process control systems have to face applications which are always more ambitions and difficult to master. In some cases it is not easy to use conventional process control techniques. With the introduction of declarative methods it is possible to start in a pragmatic way and to set an implicit formulation of the problem when no explicit formulation is available. New mechanisms can be envisioned, and we conceived a rule based controller, then the difficulty remains on the design of the rule sets. To overcome this problem, we had to use jointly some learning techniques, such as data analysis to cope with noisy data and to project them into reduced space representations. Then structural techniques allow to modelise the temporal evolution of the process control and the hidden structures. Finally, artificial intelligence machine learning techniques discover the concepts and generalise the acquired knowledge. The whole technique set is supervised by artificial intelligence, it analyses the results issued from each learning step and planes the next action to perform. Three learning strategies are used: the first one starts from the data and uses inductive learning, it proves some completeness. The second one begins with a fuzzy model and acquires rules by deduction, it brings coherency via expert knowledge. Finally the behavior rules are used and refined by means of interaction with the environment. The learning program CANDIDE performed two case studies - the speed control of a DC motor the automatic driving of a car
APA, Harvard, Vancouver, ISO, and other styles
9

Guillaume, Serge. "Induction de règles floues interprétables." Toulouse, INSA, 2001. http://www.theses.fr/2001ISAT0021.

Full text
Abstract:
L'objectif du travail présenté dans ce mémoire est l'induction de règles floues interprétables à partir de données dans le but de la coopération homme machine. Dans l'état de l'art que nous avons réalisé, les méthodes d'induction de règles floues sont organisées en trois familles. Leur comparaison montre que l'interprétabilité n'est pas garantie par le formalisme flou. La partie principale de ce mémoire décrit la méthode d'induction de règles floues que nous proposons. Elle vise à satisfaire trois conditions d'interprétabilité : lisibilité du partitionnement, nombre de règles minimal, règles incomplètes. La procédure est décomposée en trois étapes : une phase intradimensionnelle pour générer une famille de partitions par variable d'entrée, une composition multidimensionnelle pour construire un premier système performant, et une simplification de la base de règles. Elle s'appuie sur des concepts originaux tels qu'une distance entre observations qui prenne en compte la structure de la partition, ou encore le contexte défini par un groupe de règles. Elle est guidée par des indices, indice de couverture et d'hétérogénéité, que nous avons introduits en complément de l'index de performance numérique. Après une validation sur des exemples connus, la méthodologie est appliquée à la conception d'un système d'aide à la décision. Il s'agit d'induire les actions de conduite, sous forme de règles, qui accentuent la couleur du vin rouge au cours de la vinification
This report deals with interpretable fuzzy rule induction from data for human-computer cooperation purposes. A review of fuzzy rule induction methods shows that they can be grouped into three families. Their comparison highlights the fact that the interpretability is not guaranteed. The central part of our work is a new fuzzy rule induction method. It aims to fulfill three interpretability conditions: readable fuzzy partitions, a number of rules as small as possible, incomplete rules. This is achieved through a three step procedure: generating a family of fuzzy partitions for each input variable, building an accurate fuzzy inference system, simplifying the rule base. The procedure is based on original concepts such as a metric distance suitable for fuzzy partitioning, and the input context defined by a set of rules. We introduced coverage and heterogeneity related indices to guide the prodedure, complementary with a numerical performance index. The method is first validated using well known data and then applied to decison making in a complex system. This application means to extract winemaking rules which enhance the color of red wine
APA, Harvard, Vancouver, ISO, and other styles
10

Guillame-bert, Mathieu. "Apprentissage de règles associatives temporelles pour les séquences temporelles de symboles." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849087.

Full text
Abstract:
L'apprentissage de modèles temporels constitue l'une des grandes problématiques de l'Exploration de Données (Data Mining). Dans cette thèse, nous avons développé un nouveau modèle temporel appelé TITA Rules (Règle associative temporelle basé sur des arbres d'intervalles). Ce modèle permet de décrire des phénomènes ayant un certain degré d'incertitude et/ou d'imprécision. Ce modèle permet entre autres d'exprimer la synchronicité entre évènements, les contraintes temporelles disjonctives et la négation temporelle. De par leur nature, les TITA Rules peuvent êtes utilisées pour effectuer des prédictions avec une grande précision temporel. Nous avons aussi développé un algorithme capable de découvrir et d'extraire de manière efficace des TITA Rules dans de grandes bases de données temporelles. Le cœur de l'algorithme est basé sur des techniques de minimisation d'entropie, de filtrage par Apriori et par des analyses de co-dépendance. Note modèle temporelle et notre algorithme ont été appliqués et évalués sur plusieurs jeux de données issues de phénomènes réels et de phénomènes simulés. La seconde partie de cette thèse à consisté à étudier l'utilisation de notre modèle temporel sur la problématique de la Planification Automatique. Ces travaux ont mené au développement d'un algorithme de planification automatique. L'algorithme prend en entrée un ensemble de TITA Rules décrivant le fonctionnement d'un système quelconque, une description de l'état initial du système, et un but à atteindre. En retour, l'algorithme calcule un plan décrivant la meilleure façon d'atteindre le but donné. Par la nature même des TITA Rules, cet algorithme est capable de gérer l'incertain (probabilités), l'imprécision temporelle, les contraintes temporelles disjonctives, ainsi que les événements exogènes prédictibles mais imprécis.
APA, Harvard, Vancouver, ISO, and other styles
11

Guillame-Bert, Mathieu. "Apprentissage de règles associatives temporelles pour les séquences temporelles de symboles." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM081/document.

Full text
Abstract:
L'apprentissage de modèles temporels constitue l'une des grandes problématiques de l'Exploration de Données (Data Mining). Dans cette thèse, nous avons développé un nouveau modèle temporel appelé TITA Rules (Règle associative temporelle basé sur des arbres d'intervalles). Ce modèle permet de décrire des phénomènes ayant un certain degré d'incertitude et/ou d'imprécision. Ce modèle permet entre autres d'exprimer la synchronicité entre évènements, les contraintes temporelles disjonctives et la négation temporelle. De par leur nature, les TITA Rules peuvent êtes utilisées pour effectuer des prédictions avec une grande précision temporel. Nous avons aussi développé un algorithme capable de découvrir et d'extraire de manière efficace des TITA Rules dans de grandes bases de données temporelles. Le cœur de l'algorithme est basé sur des techniques de minimisation d'entropie, de filtrage par Apriori et par des analyses de co-dépendance. Note modèle temporelle et notre algorithme ont été appliqués et évalués sur plusieurs jeux de données issues de phénomènes réels et de phénomènes simulés. La seconde partie de cette thèse à consisté à étudier l'utilisation de notre modèle temporel sur la problématique de la Planification Automatique. Ces travaux ont mené au développement d'un algorithme de planification automatique. L'algorithme prend en entrée un ensemble de TITA Rules décrivant le fonctionnement d'un système quelconque, une description de l'état initial du système, et un but à atteindre. En retour, l'algorithme calcule un plan décrivant la meilleure façon d'atteindre le but donné. Par la nature même des TITA Rules, cet algorithme est capable de gérer l'incertain (probabilités), l'imprécision temporelle, les contraintes temporelles disjonctives, ainsi que les événements exogènes prédictibles mais imprécis
The learning of temporal patterns is a major challenge of Data mining. We introduce a temporal pattern model called Temporal Interval Tree Association Rules (Tita rules or Titar). This pattern model can be used to express both uncertainty and temporal inaccuracy of temporal events. Among other things, Tita rules can express the usual time point operators, synchronicity, order, and chaining,disjunctive time constraints, as well as temporal negation. Tita rules are designed to allow predictions with optimum temporal precision. Using this representation, we present the Titar learner algorithm that can be used to extract Tita rules from large datasets expressed as Symbolic Time Sequences. This algorithm based on entropy minimization, apriori pruning and statistical dependence analysis. We evaluate our technique on simulated and real world datasets. The problem of temporal planning with Tita rules is studied. We use Tita rules as world description models for a Planning and Scheduling task. We present an efficient temporal planning algorithm able to deal with uncertainty, temporal inaccuracy, discontinuous (or disjunctive) time constraints and predictable but imprecisely time located exogenous events. We evaluate our technique by joining a learning algorithm and our planning algorithm into a simple reactive cognitive architecture that we apply to control a robot in a virtual world
APA, Harvard, Vancouver, ISO, and other styles
12

Havard, Christelle. "Entreprise, efficacité et règles organisationnelles : analyse de la cohérence et de la pertinence des règles de deux établissements postaux." Rennes 2, 2000. http://www.theses.fr/2000REN20031.

Full text
Abstract:
Cette thèse propose une grille de lecture pour comprendre l'évolution de srègles de fonctionnement interne des entreprises et plus particulièrement de La Poste. Ces évolutions sont motivées par la recherche d'efficacité organisationnelle. L'auteur fait l'hypothèse que celle-ci peut être obtenue lorsque les règles organisationnelles sont rendues cohérentes entre elles et lorsqu'elles sont pertinentes par rapport aux composants de l'environnement de l'entreprise. La construction de cette grille de lecture a rendu nécessaire une réflexion approfondie sur les notions d'entreprise, d'efficacité organisationnelle et de règles organisationnelles. L'entreprise est définie comme une organisation (c'est-à-dire comme une entité collective finalisée et durable de division et de coordination) en étroite relation avec son environnement (ce dernier étant considéré comme pluriel et construit). L'efficacité organisationnelle, considérée comme le degré d'atteinte des objectifs, peut être réalisée lorsque les règles organisationnelles sont cohérentes et pertinentes. . Enfin, ces règles organisationnelles sont appréhendées globalement comme des solutions collectives à des actions finalisées. /. Cette analyse empirique consiste à identifier et à caractériser les différentes règles de ces unités puis à examiner en statique et en dynamique leur articulation interne (cohérence) et leur articulation avec certains éléments de l'environnement (pertinence)
This thesis deals with changes in company rules and how the effect organisationall efficiency. The hypothesis is that organizational efficiency can be reached only when the rules are both consistent and relevant. A grid was designed for reading and analysing company rules. This grid was applied to two sorting offices and the organisational efficiency of the two establishments subsequently examined
APA, Harvard, Vancouver, ISO, and other styles
13

Braud, Raphaël. "Apprentissage incrémental de règles sensorimotrices dans un robot, du babillage moteur à l'utilisation d'outils." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0897/document.

Full text
Abstract:
Ma thèse porte sur l'intégration développementale de différents systèmes d'apprentissage dans un robot, du babillage moteur à l'émergence de l'utilisation d'outils. L'utilisation d'outils recouvre de nombreuses problématiques, certaines bas niveau (comme l'extension du schéma corporel) et d'autres plus haut niveau (comme la capacité à faire une séquence d'actions).Nous avons pour cela proposé un modèle appelé Dynamic Sensorimotor Model (DSM). DSM apprend des lois sensorimotrices, qui consistent à prédire les variations sensorielles (comme le déplacement d'un objet dans l'espace visuel) en fonction :1) De magnitudes motrices (comme des commandes en vitesse de servomoteurs).2) D'un contexte donné (un vecteur de données sensorielles).Un tel prédicteur peut apprendre et affiner ses lois sensorimotrices dans n'importe quelle situation, que ce soit durant l'exécution d'une tâche ou durant une phase de babillage moteur. L'apprentissage de ces prédictions est donc indépendant de l'exécution de tâches particulières, et pourra être exploité dans de nouveaux contextes, et pour satisfaire de nouvelles tâches.Pour cela, DSM contient un mécanisme de simulation motrice mais aussi un mécanisme de simulation de contextes. Ces simulations portent ainsi sur :1) Les entrées motrices, ce qui permet de déterminer les commandes motrices à effectuer en vue d'une tâche particulière.2) Les entrées sensorielles, ce qui permet de proposer des contextes alternatifs au sein desquels les actions permettant la réalisation d'une tâche pourront être effectuées. Ces contextes alternatifs pourront alors se constituer en sous-buts permettant d'effectuer une séquence d'actions.Grâce à ces simulations, des expériences sur robot réel ont permis de satisfaire une tâche consistant à rejoindre une cible avec l'extrémité du bras, en faisant un détour pour saisir un outil. La saisie a comme propriété d'étendre le schéma corporel (le segment terminal du bras du robot).La capacité à faire des séquences à la volée repose sur les contextes qui auront été appris. Cela met en évidence l'importance d'avoir des contextes ne contenant que les données suffisantes à la prédiction, afin de générer, par le mécanisme de simulation, des sous-buts les plus minimaux possibles pour satisfaire un but donné.Notre modèle catégorise des lois additives afin de ne pas perturber les lois sensorimotrices précédemment apprises et ainsi apprendre des lois de manière incrémentale. Dans DSM, une nouvelle catégorie se caractérise par l'instauration d'une distance entre la configuration sensorielle correspondant au contexte actuel, dans lequel les lois courantes sont en échec, et le dernier contexte dans lequel ces lois s'appliquaient correctement. Cette distance entre contextes est donc multimodale, et indépendante de la topologie propre des senseurs d'entrée. Par contre, étant issue de deux situations à deux moments différents, cette distance dépend de l'exploration sensorimotrice du robot durant cet interval de temps. Pendant cette période, les senseurs qui auront suffisamment changés de valeurs apparaîtront comme discriminant un contexte par rapport à l'autre, bien qu'ils ne soient pas tous pertinents. Ce sera par l'action que les senseurs pertinents seront sélectionnés
Inspired by concepts found in developmental psychology, my work focuses on robotic learning through motor babbling in order to achieve low-level sensorimotor control and, subsequently, to progress to more high-level behaviours such as the use of tools. Tool-use raises several key issues related to the extension of the body schema and the ability to make sequences of actions. In this presentation I will discuss my research efforts in this area by presenting a model called "Dynamic Sensorimotor Model (DSM)". DSM learns sensorimotor laws by making predictions about sensory input variations, as a result of observing environmental phenomena and interacting with objects in the reaching space.Sensorimotor laws depend on; 1) motor magnitudes (e.g., motor commands in velocity) and 2) a given context (i.e., a sensory input vector). A predictor learns and refines sensorimotor laws either during the execution of a task or during a motor babbling phase. Learning laws is therefore independent of the execution of specific tasks and they can be exploited in both new contexts and/or for new tasks.DSM employs two mechanisms. First, a mechanism for motor simulations that considers the result of simulated motor inputs to determine appropriate motor commands to be performed towards a particular task. Second, a mechanism for context simulations that uses simulated sensory inputs in order to identify contexts that can potentially form sub-goals towards the completion of a task.The performance of the system is evaluated through a series of experiments conducted using both a simulated and a real robotic platform. The results demonstrate the ability of the system to complete reaching tasks and highlight its strength in making use of a nearby tool when the target is not within its reach.The ability to make sequences of actions on the fly is based on the accuracy of the contexts that the system gradually learns. The last part of my work focuses on improving the efficiency of making sequences of actions by offering the ability to categorize contexts based on the variations observed in the sensors with respect to the variation of the sensorimotor laws
APA, Harvard, Vancouver, ISO, and other styles
14

Guarda, Alvaro. "Apprentissage génétique de règles de reconnaissance visuelle : application à la reconnaissance d'éléments du visage." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0110.

Full text
Abstract:
Depuis quelques annees, un interet croissant est constate dans l'utilisation de techniques d'apprentissage automatique en vision par ordinateur et domaines voisins. Cependant, toutes les possibilites sont loin d'etre suffisamment exploitees. Dans cette perspective, l'objectif de cette these est l'apprentissage automatique de modeles d'objets pour la reconnaissance visuelle dans le cadre de la vision par apparence. Les modeles sont representes par un ensemble de regles en logique floue. Une regle est un ensemble de caracteristiques locales combinees par les operateurs usuels de la logique floue (et, ou et non). Les caracteristiques sont representees par des masques de convolution. L'apprentissage procede par induction sur un ensemble d'exemples, de facon supervisee et incrementale. Des methodes d'apprentissage genetique sont utilisees a deux niveaux : un algorithme genetique fait evoluer des caracteristiques, et une methode de type programmation genetique emploie ces caracteristiques dans la construction de regles de reconnaissance. La methode proposee peut etre utilisee pour apprendre des modeles afin de detecter un objet dans une image ou dans une sequence d'images, ou afin de classifier l'image d'un objet. Nous presentons des resultats d'experimentation avec le prototype d'un tel systeme pour deux taches differentes : classification d'elements du visage humain - il droit, il gauche, bouche, nez ; et detection des yeux. Ce prototype est actuellement integre dans un programme de suivi de visage utilise dans un systeme d'interaction homme machine.
APA, Harvard, Vancouver, ISO, and other styles
15

D'Ambrosio, Roberto. "Classification de bases de données déséquilibrées par des règles de décomposition." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4007/document.

Full text
Abstract:
Le déséquilibre entre la distribution des a priori est rencontré dans un nombre très large de domaines. Les algorithmes d’apprentissage conventionnels sont moins efficaces dans la prévision d’échantillons appartenant aux classes minoritaires. Notre but est de développer une règle de reconstruction adaptée aux catégories de données biaisées. Nous proposons une nouvelle règle, la Reconstruction Rule par sélection, qui, dans le schéma ‘One-per-Class’, utilise la fiabilité, des étiquettes et des distributions a priori pour permettre de calculer une décision finale. Les tests démontrent que la performance du système s’améliore en utilisant cette règle plutôt que des règles classiques. Nous étudions également les règles dans l’ ‘Error Correcting Output Code’ (ECOC) décomposition. Inspiré par une règle de reconstitution de données statistiques conçue pour le ‘One-per-Class’ et ‘Pair-Wise Coupling’ des approches sur la décomposition, nous avons développé une règle qui s’applique à la régression ‘softmax’ sur la fiabilité afin d’évaluer la classification finale. Les résultats montrent que ce choix améliore les performances avec respect de la règle statistique existante et des règles de reconstructions classiques. Sur ce thème d’estimation fiable nous remarquons que peu de travaux ont porté sur l’efficacité de l’estimation postérieure dans le cadre de boosting. Suivant ce raisonnement, nous développons une estimation postérieure efficace en boosting Nearest Neighbors. Utilisant Universal Nearest Neighbours classification nous prouvons qu’il existe une sous-catégorie de fonctions, dont la minimisation apporte statistiquement de simples et efficaces estimateurs de Bayes postérieurs
Disproportion among class priors is encountered in a large number of domains making conventional learning algorithms less effective in predicting samples belonging to the minority classes. We aim at developing a reconstruction rule suited to multiclass skewed data. In performing this task we use the classification reliability that conveys useful information on the goodness of classification acts. In the framework of One-per-Class decomposition scheme we design a novel reconstruction rule, Reconstruction Rule by Selection, which uses classifiers reliabilities, crisp labels and a-priori distributions to compute the final decision. Tests show that system performance improves using this rule rather than using well-established reconstruction rules. We investigate also the rules in the Error Correcting Output Code (ECOC) decomposition framework. Inspired by a statistical reconstruction rule designed for the One-per-Class and Pair-Wise Coupling decomposition approaches, we have developed a rule that applies softmax regression on reliability outputs in order to estimate the final classification. Results show that this choice improves the performances with respect to the existing statistical rule and to well-established reconstruction rules. On the topic of reliability estimation we notice that small attention has been given to efficient posteriors estimation in the boosting framework. On this reason we develop an efficient posteriors estimator by boosting Nearest Neighbors. Using Universal Nearest Neighbours classifier we prove that a sub-class of surrogate losses exists, whose minimization brings simple and statistically efficient estimators for Bayes posteriors
APA, Harvard, Vancouver, ISO, and other styles
16

Cleuziou, Guillaume. "Une méthode de classification non-supervisée pour l'apprentissage de règles et la recherche d'information." Phd thesis, Université d'Orléans, 2004. http://tel.archives-ouvertes.fr/tel-00084828.

Full text
Abstract:
Le regroupement d'objets, dans un cadre non-supervisé, est une tâche importante et difficile en apprentissage. Ce processus intervient dans des contextes variés tels que la découverte de connaissances, la simplification dans le représentation ou la description d'un ensemble de données.

Nous proposons, dans cette étude, l'algorithme de clustering PoBOC permettant de structurer un ensemble d'objets en classes non-disjointes. Nous utilisons cette méthode de clustering comme outil de traitement dans deux applications très différentes.

- En apprentissage supervisé, l'organisation préalable des instances apporte une connaissance utile pour la tâche d'induction de règles propositionnelles et logiques.

- En Recherche d'Information, les ambiguïtés et subtilités de la langue naturelle induisent naturellement des recouvrements entre thématiques.

Dans ces deux domaines de recherche, l'intérêt d'organiser les objets en classes non-disjointes est confirmé par les études expérimentales adaptées.
APA, Harvard, Vancouver, ISO, and other styles
17

Guély, François. "Apprentissage de bases de règles floues : contribution à une étude systématique de l'approche de l'optimisation." Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0387.

Full text
Abstract:
Les bases de règles floues sont utilisées depuis les années 70 pour réaliser de nombreuses applications industrielles. Depuis la fin des années 70 des méthodes d'apprentissage automatique des bases de règles floues sont apparues, pour tenter de répondre aux besoins de rendre les bases de règles floues portables d'une application à une autre semblable, d'en systématiser la mise au point, et de les rendre adaptatives. Ces méthodes sont très étudiées aujourd'hui. Ce travail s'attache à étudier les méthodes qui utilisent les techniques d'optimisation pour effectuer l'apprentissage des fonctions d'appartenance. Le gradient, le recuit simulé et les algorithmes génétiques sont utilisés ici pour optimiser des bases de règles floues de Takagi-Sugeno. Un nouveau type de règles, les règles de Takagi-Sugeno centrées, est proposé. Il est démontré sur un cas simple et vérifié expérimentalement qu'elles permettent d'éviter des problèmes de convergence rencontrés avec le gradient. Enfin, trois applications industrielles de l'apprentissage à des automates programmables sont exposées: une méthode de commande avec apprentissage en temps réel, un approximateur simple, une méthode générale d'optimisation de bases de règles de Mamdani.
APA, Harvard, Vancouver, ISO, and other styles
18

Pomorski, Denis. "Apprentissage automatique symbolique/numérique : construction et évaluation d'un ensemble de règles à partir des données." Lille 1, 1991. http://www.theses.fr/1991LIL10117.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du thème : Analyse et Surveillance des Processus Industriels Complexes, développé au Laboratoire d'Automatique et d'Information Industrielle de Lille (LAIL-URA 1440). Nous considérons des systèmes pour lesquels aucun modèle de comportement n'est disponible. Leur surveillance passe alors par l'établissement d'un modèle statistique, élaboré à partir de l'analyse des données relevées sur le processus. Après avoir présenté deux systèmes (ID3 et INDUCE) très utilisés en apprentissage, nous caractérisons les propriétés (cohérence, complétude. . . ) d'un ensemble de règles obtenues par une procédure d'apprentissage, et nous proposons des critères permettant d'évaluer ces règles. Nous distinguons deux procédures de construction de règles plus générales: l'agrégation et le prolongement. Nous donnons, pour ces deux cas, des moyens d'évaluation des résultats obtenus reposant sur différentes hypothèses (monde clos, non contradiction, continuité). Nous proposons dès lors la construction d'un modèle explicatif par généralisation des règles constituant le modèle atomique (représentant le comportement déterministe du processus). Nous développons des méthodes d'induction utilisant une représentation globale (construction de partitions) basées sur un critère entropique (issu de la théorie de l'information), et une représentation locale (prise en compte de parties)
APA, Harvard, Vancouver, ISO, and other styles
19

Jrad, Nisrine. "Apprentissage et qualification des règles de décision multiclasses avec rejet sélectif et contraintes de performance." Troyes, 2009. http://www.theses.fr/2009TROY0023.

Full text
Abstract:
Ce document traite de l'apprentissage supervisé et de la qualification de règles de classification dans un cadre multihypothèse avec rejet sélectif et contraintes de performance. Le processus d'apprentissage consiste à formuler le problème d'apprentissage comme un problème d'optimisation avec contraintes. L'apprentissage est réalisé pour différentes familles de règles définissant géénratlement des ensembles de solutions de complexité croissante. Pour chaque règle, le critère optimisé dépend à la fois de la règle de décision et des poids attribués aux contraintes lors du processus d'apprentissage. La sélection d'une règle parmi les candidates nécessite la définition d'un critère commun. Une proposition de critère est faite et les modalités de son estimation sont discutées. Deux méthodes d'apprentissage, reposant respectivement sur une modélisation des densités de probabilité et sur des vecteurs support mono-classes sont introduites. Les deux approches sont évaluées sur des données réelles issues de bases de données trandard. Plusieurs extensions sont étudiées, notamment le traitement de contraintes évolutives dans le temps et l'utilisation du rejet sélectif dans des cascades de classifieurs pour améliorer la faibilité de la décision. Cette dernière approche est applirquée au diagnostic de tumeurs cancéreuses et apporte un gain de précision significatif
This thesis deals with supervised learning and quality assessment of a decision rule for multiclass problems with class-selective rejection and performance constraints. The learning process consists in solving and optimisation problem with constraints for a given model. Several families of decision rules with different complexity can be defined by restricting parameter domain. An optimal rule can be obtained within each family. In order to compare the different rules and chose the best one, a common criterion should be defined. This criterion should take into consideration the constraints. Thus, this criterion if function of the decision rule and the weights associated to each constraint. A performance criterion is proposed and its estimation is discussed. Two learning processes, givent by a class-modelling approache and a boundary approache, based on one class SVM, are presented. Synthetic complementary problems are also tackled such as learning decision rule for problems with time evoluarionary constraints or using a cascade classifier system with class-selective rejection to improve the accuracy of the decision. This latter study was applied to cancer tumours diagnosis and results in significant performance improvement
APA, Harvard, Vancouver, ISO, and other styles
20

Salvat, Eric. "Raisonner avec des opérations de graphes : graphes conceptuels et règles d'inférence." Montpellier 2, 1997. http://www.theses.fr/1997MON20192.

Full text
Abstract:
Le modele des graphes conceptuels a ete propose par j. F. Sowa en 1984. Les graphes conceptuels simples sont des graphes etiquetes. L'operation de base, la projection, est un morphisme de graphes. Le modele des graphes conceptuels simples possede une semantique en logique du premier ordre qui est adequate et complete par rapport a la deduction. Un interet fondamental des graphes conceptuels reside donc dans la possibilite de pouvoir effectuer des raisonnements avec des operations de graphes. Dans ce travail, nous proposons une extension du modele par des regles d'inferences du type si g1 alors g2 ou g1 et g2 sont des graphes conceptuels. Nous presentons des operations de graphes permettant d'utiliser des regles de graphes conceptuels dans des mecanismes de chainage avant et de chainage arriere. Dans les deux cas les operations proposees sont adequates et completes par rapport a la deduction en logique du premier ordre. Les graphes conceptuels emboites constituent une autre extension du modele de base. L'emboitement permet d'ajouter de l'information a l'interieur meme d'un sommet concept. Cette information est donc interne a ce sommet, c'est-a-dire qu'elle est pertinente dans le contexte represente par ce sommet. Nous avons etendu les regles de graphes conceptuels aux graphes conceptuels emboites. Tout comme precedemment les mecanismes de chainage avant et de chainage arriere definis sont adequats et complets vis-a-vis de la deduction en logique du premier ordre.
APA, Harvard, Vancouver, ISO, and other styles
21

D'ambrosio, Roberto. "Classification de bases de données déséquilibrées par des règles de décomposition." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00995021.

Full text
Abstract:
Le déséquilibre entre la distribution des a priori est rencontré dans un nombre très large de domaines. Les algorithmes d'apprentissage conventionnels sont moins efficaces dans la prévision d'échantillons appartenant aux classes minoritaires. Notre but est de développer une règle de reconstruction adaptée aux catégories de données biaisées. Nous proposons une nouvelle règle, la Reconstruction Rule par sélection, qui, dans le schéma 'One-per-Class', utilise la fiabilité, des étiquettes et des distributions a priori pour permettre de calculer une décision finale. Les tests démontrent que la performance du système s'améliore en utilisant cette règle plutôt que des règles classiques. Nous étudions également les règles dans l' 'Error Correcting Output Code' (ECOC) décomposition. Inspiré par une règle de reconstitution de données statistiques conçue pour le 'One-per-Class' et 'Pair-Wise Coupling' des approches sur la décomposition, nous avons développé une règle qui s'applique à la régression 'softmax' sur la fiabilité afin d'évaluer la classification finale. Les résultats montrent que ce choix améliore les performances avec respect de la règle statistique existante et des règles de reconstructions classiques. Sur ce thème d'estimation fiable nous remarquons que peu de travaux ont porté sur l'efficacité de l'estimation postérieure dans le cadre de boosting. Suivant ce raisonnement, nous développons une estimation postérieure efficace en boosting Nearest Neighbors. Utilisant Universal Nearest Neighbours classification nous prouvons qu'il existe une sous-catégorie de fonctions, dont la minimisation apporte statistiquement de simples et efficaces estimateurs de Bayes postérieurs.
APA, Harvard, Vancouver, ISO, and other styles
22

Chraibi, Kaadoud Ikram. "apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0032/document.

Full text
Abstract:
Deux aspects importants de la connaissance qu'un individu a pu acquérir par ses expériences correspondent à la mémoire sémantique (celle des connaissances explicites, comme par exemple l'apprentissage de concepts et de catégories décrivant les objets du monde) et la mémoire procédurale (connaissances relatives à l'apprentissage de règles ou de la syntaxe). Cette "mémoire syntaxique" se construit à partir de l'expérience et notamment de l'observation de séquences, suites d'objets dont l'organisation séquentielle obéit à des règles syntaxiques. Elle doit pouvoir être utilisée ultérieurement pour générer des séquences valides, c'est-à-dire respectant ces règles. Cette production de séquences valides peut se faire de façon explicite, c'est-à-dire en évoquant les règles sous-jacentes, ou de façon implicite, quand l'apprentissage a permis de capturer le principe d'organisation des séquences sans recours explicite aux règles. Bien que plus rapide, plus robuste et moins couteux en termes de charge cognitive que le raisonnement explicite, le processus implicite a pour inconvénient de ne pas donner accès aux règles et de ce fait, de devenir moins flexible et moins explicable. Ces mécanismes mnésiques s'appliquent aussi à l'expertise métier : la capitalisation des connaissances pour toute entreprise est un enjeu majeur et concerne aussi bien celles explicites que celles implicites. Au début, l'expert réalise un choix pour suivre explicitement les règles du métier. Mais ensuite, à force de répétition, le choix se fait automatiquement, sans évocation explicite des règles sous-jacentes. Ce changement d'encodage des règles chez un individu en général et particulièrement chez un expert métier peut se révéler problématique lorsqu'il faut expliquer ou transmettre ses connaissances. Si les concepts métiers peuvent être formalisés, il en va en général de tout autre façon pour l'expertise. Dans nos travaux, nous avons souhaité nous pencher sur les séquences de composants électriques et notamment la problématique d’extraction des règles cachées dans ces séquences, aspect important de l’extraction de l’expertise métier à partir des schémas techniques. Nous nous plaçons dans le domaine connexionniste, et nous avons en particulier considéré des modèles neuronaux capables de traiter des séquences. Nous avons implémenté deux réseaux de neurones récurrents : le modèle de Elman et un modèle doté d’unités LSTM (Long Short Term Memory). Nous avons évalué ces deux modèles sur différentes grammaires artificielles (grammaire de Reber et ses variations) au niveau de l’apprentissage, de leurs capacités de généralisation de celui-ci et leur gestion de dépendances séquentielles. Finalement, nous avons aussi montré qu’il était possible d’extraire les règles encodées (issues des séquences) dans le réseau récurrent doté de LSTM, sous la forme d’automate. Le domaine électrique est particulièrement pertinent pour cette problématique car il est plus contraint avec une combinatoire plus réduite que la planification de tâches dans des cas plus généraux comme la navigation par exemple, qui pourrait constituer une perspective de ce travail
There are two important aspects of the knowledge that an individual acquires through experience. One corresponds to the semantic memory (explicit knowledge, such as the learning of concepts and categories describing the objects of the world) and the other, the procedural or syntactic memory (knowledge relating to the learning of rules or syntax). This "syntactic memory" is built from experience and particularly from the observation of sequences of objects whose organization obeys syntactic rules.It must have the capability to aid recognizing as well as generating valid sequences in the future, i.e., sequences respecting the learnt rules. This production of valid sequences can be done either in an explicit way, that is, by evoking the underlying rules, or implicitly, when the learning phase has made it possible to capture the principle of organization of the sequences without explicit recourse to the rules. Although the latter is faster, more robust and less expensive in terms of cognitive load as compared to explicit reasoning, the implicit process has the disadvantage of not giving access to the rules and thus becoming less flexible and less explicable. These mnemonic mechanisms can also be applied to business expertise. The capitalization of information and knowledge in general, for any company is a major issue and concerns both the explicit and implicit knowledge. At first, the expert makes a choice to explicitly follow the rules of the trade. But then, by dint of repetition, the choice is made automatically, without explicit evocation of the underlying rules. This change in encoding rules in an individual in general and particularly in a business expert can be problematic when it is necessary to explain or transmit his or her knowledge. Indeed, if the business concepts can be formalized, it is usually in any other way for the expertise which is more difficult to extract and transmit.In our work, we endeavor to observe sequences of electrical components and in particular the problem of extracting rules hidden in these sequences, which are an important aspect of the extraction of business expertise from technical drawings. We place ourselves in the connectionist domain, and we have particularly considered neuronal models capable of processing sequences. We implemented two recurrent neural networks: the Elman model and a model with LSTM (Long Short Term Memory) units. We have evaluated these two models on different artificial grammars (Reber's grammar and its variations) in terms of learning, their generalization abilities and their management of sequential dependencies. Finally, we have also shown that it is possible to extract the encoded rules (from the sequences) in the recurrent network with LSTM units, in the form of an automaton. The electrical domain is particularly relevant for this problem. It is more constrained with a limited combinatorics than the planning of tasks in general cases like navigation for example, which could constitute a perspective of this work
APA, Harvard, Vancouver, ISO, and other styles
23

Cousin, Marie-Paule. "Apprentissage de la production écrite de l'accord en nombre : application de règles et/ou récuperation d'instances ?" Rouen, 2004. http://www.theses.fr/2004ROUEL477.

Full text
Abstract:
Cette thèse étudie les processus impliqués dans l'acquisition de la morphologie flexionnelle du nombre par les enfants français, à l'écrit. Six expériences sont présentées. Les cinq premières utilisent une méthode transversale. Elles montrent l'influence de la rencontre préalable des items et de la modalité de nombre dans laquelle ils sont rencontrés sur la production de l'accord. La sixième expérience consiste en un suivi longitudinal. Elle étudie l'impact dans le temps de la fréquence de rencontre, de la modalité de nombre et de l'âge auquel les items sont rencontrés. Ces travaux établissent l'utilisation précoce par les enfants de récupérations d'instances pour la production de l'accord en nombre à l'écrit. Ils montrent que, comme chez l'adulte, le traitement de la morphologie flexionnelle du nombre par les enfants peut s'effectuer de deux manières. La première consiste en l'application de règles, la seconde en la récupération directe d'instances
This thesis studies the processes involved in the acquisition of the written number flexional morphology by French children. Six experiments are submitted. The first five ones use a cross method. They show the item's previous encounter and the number form impact on number agreement production. The sixth one is a longitudinal study. It examines the impact of the encounter frequency in time, the number form and the age of acquisition. This research shows that children use early instances retrieval for a written number agreement. As for adults, the number flexional morphology processing can be produced by children. In two ways. The first one is the implementation of rules, the second one is the instances direct retrieval
APA, Harvard, Vancouver, ISO, and other styles
24

Ndiaye, Seydina Moussa. "Apprentissage par renforcement en horizon fini : Application à la génération de règles pour la conduite de culture." Toulouse 3, 1999. http://www.theses.fr/1999TOU30010.

Full text
Abstract:
Le point essentiel de la première partie de la thèse a été d'adapter au cadre de l'horizon fini les méthodes d'apprentissage par renforcement (AR) existantes. Nous avons considéré essentiellement deux d'entre elles basées sur le principe des différences temporelles, le Q-Learning et le R-Learning, qui différent sur la fonction d'évaluation. Toutes les études faites dans ce domaine concernent des problèmes en horizon infini. Les résultats obtenus nous ont permis d'établir un lien entre le critère 1-pondéré (Q-Learning) et le critère moyen (R-Learning) en horizon fini. La réécriture du R-Learning en horizon fini montre une équivalence entre le critère moyen et le critère fini. La méthode de l'ODE (ordinary differential equation) a été utilisée pour analyser la vitesse de convergence de ces algorithmes en horizon fini. Nous avons montré que le R-Learning pouvait être vu comme une version à gain matriciel du Q-Learning. Le second problème a été la représentation de l'espace de résolution en AR. Généralement les algorithmes d'AR sont appliqués sur des espaces discrets alors que dans notre problème de conduite de culture nous avons à faire avec des espaces mixtes (discrets et continus). Une solution est d'utiliser la méthode de représentation par CMAC (cerebellar model articulation controller) communément utilisée en AR. Cependant, bien que donnant des résultats satisfaisants, ce mode de représentation n'est pas adéquat pour notre application parce qu'il ne fournit pas une caractérisation intelligible pour l'utilisateur agronome de la notion de stratégie. Une représentation par un ensemble de règles de décision de la forme si alors est préférable. La solution envisagée est d'apprendre directement des stratégies de conduite de culture sous forme de règles de décision. Pour cela, des techniques d'algorithmes génétiques (AG) sont utilisées pour modifier et apprendre la structure optimale des règles de décision.
APA, Harvard, Vancouver, ISO, and other styles
25

Collain, Emmanuel, and Jean-Marc Fovet. "Apprentissage de plans de résolution pour améliorer l'efficacité des chainages avant des systèmes à base de règles." Paris 6, 1991. http://www.theses.fr/1991PA066446.

Full text
Abstract:
En logique d'ordre un l'explosion combinatoire fait chuter les performances des systèmes a base de règles. Ce travail propose un mécanisme de planification pour y remédier. La représentation d'une résolution par un arbre etats/transitions nous donne deux approches possibles: planification par les transitions et planification par les états. Ces deux approches ne sont pas satisfaisantes car la combinatoire des moteurs d'inférence a été remplacée par une combinatoire lors de la construction des plans. Une nouvelle approche est d'avoir des connaissances spécifiques de planification pour chaque problème a résoudre: un schéma de plan. Un schéma de plan est constitue de deux parties: une partie reconnaissance de problème et une partie plan. Les schémas de plan sont construits de façon incrémentale. Pour un nouveau problème une première version d'un schéma de plan est construite à partir de sa résolution en chaînage avant. L'évolution d'un schéma de plan est nécessaire dans les deux cas suivants: son analyse avec une résolution en chaînage avant d'un problème proche montre des divergences, un échec lors de son exécution. L'analyse des performances de la planification par schémas de plans montre un gain de temps dans la plupart des cas
APA, Harvard, Vancouver, ISO, and other styles
26

Wang, Olivier. "Adaptive Rules Model : Statistical Learning for Rule-Based Systems." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX037/document.

Full text
Abstract:
Les Règles Métiers (Business Rules en anglais, ou BRs) sont un outil communément utilisé dans l’industrie pour automatiser des prises de décisions répétitives. Le problème de l’adaptation de bases de règles existantes à un environnement en constante évolution est celui qui motive cette thèse. Des techniques existantes d’Apprentissage Automatique Supervisé peuvent être utilisées lorsque cette adaptation se fait en toute connaissance de la décision correcte à prendre en toute circonstance. En revanche, il n’existe actuellement aucun algorithme, qu’il soit théorique ou pratique, qui puisse résoudre ce problème lorsque l’information connue est de nature statistique, comme c’est le cas pour une banque qui souhaite contrôler la proportion de demandes de prêt que son service de décision automatique fait passer à des experts humains. Nous étudions spécifiquement le problème d’apprentissage qui a pour objectif d’ajuster les BRs de façon à ce que les décisions prises aient une valeur moyenne donnée.Pour ce faire, nous considérons les bases de Règles Métiers en tant que programmes. Après avoir formalisé quelques définitions et notations dans le Chapitre 2, le langage de programmation BR ainsi défini est étudié dans le Chapitre 4, qui prouve qu’il n’existe pas d’algorithme pour apprendre des Règles Métiers avec un objectif statistique dans le cas général. Nous limitons ensuite le champ d’étude à deux cas communs où les BRs sont limités d’une certaine façon : le cas Borné en Itérations dans lequel, quelles que soit les données d’entrée, le nombre de règles exécutées en prenant la décision est inférieur à une borne donnée ; et le cas Linéaire Borné en Itérations dans lequel les règles sont de plus écrite sous forme Linéaire. Dans ces deux cas, nous produisons par la suite un algorithme d’apprentissage basé sur la Programmation Mathématique qui peut résoudre ce problème. Nous étendons brièvement cette formalisation et cet algorithme à d’autres problèmes d’apprentissage à objectif statistique dans le Chapitre 5, avant de présenter les résultats expérimentaux de cette thèse dans le Chapitre 6
Business Rules (BRs) are a commonly used tool in industry for the automation of repetitive decisions. The emerging problem of adapting existing sets of BRs to an ever-changing environment is the motivation for this thesis. Existing Supervised Machine Learning techniques can be used when the adaptation is done knowing in detail which is the correct decision for each circumstance. However, there is currently no algorithm, theoretical or practical, which can solve this problem when the known information is statistical in nature, as is the case for a bank wishing to control the proportion of loan requests its automated decision service forwards to human experts. We study the specific learning problem where the aim is to adjust the BRs so that the decisions are close to a given average value.To do so, we consider sets of Business Rules as programs. After formalizing some definitions and notations in Chapter 2, the BR programming language defined this way is studied in Chapter 3, which proves that there exists no algorithm to learn Business Rules with a statistical goal in the general case. We then restrain the scope to two common cases where BRs are limited in some way: the Iteration Bounded case in which no matter the input, the number of rules executed when taking the decision is less than a given bound; and the Linear Iteration Bounded case in which rules are also all written in Linear form. In those two cases, we later produce a learning algorithm based on Mathematical Programming which can solve this problem. We briefly extend this theory and algorithm to other statistical goal learning problems in Chapter 5, before presenting the experimental results of this thesis in Chapter 6. The last includes a proof of concept to automate the main part of the learning algorithm which does not consist in solving a Mathematical Programming problem, as well as some experimental evidence of the computational complexity of the algorithm
APA, Harvard, Vancouver, ISO, and other styles
27

Averyanov, Yaroslav. "Concevoir et analyser de nouvelles règles d’arrêt prématuré pour économiser les ressources de calcul." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I048.

Full text
Abstract:
Ce travail développe et analyse des stratégies pour construire des instances de ce que l’on appelle les règles d’arrêt prématurés appliquées à certains algorithmes d’apprentissage itératif pour estimer la fonction de régression. Ces quantités sont des règles "data-driven" indiquant quand arrêter le processus d’apprentissage itératif pour parvenir à un compromis entre les coûts de calcul et la précision statistique. Contrairement à une grande partie de la littérature existante sur l’arrêt prématuré, où ces règles ne dépendent que des données de manière "faible", nous fournissons des solutions data-driven pour le problème susmentionné sans utiliser les données de validation. L’idée cruciale exploitée ici est celle du principe d’écart minimal (MDP), qui montre où arrêter un algorithme d’apprentissage itératif. À notre connaissance, cette idée remonte aux travaux de Vladimir A. Morozov dans les années 1960-1970 qui a étudié des problèmes linéaires mal posés et leur régularisation, principalement inspirés par des problèmes de physique mathématique. Parmi les différentes applications de cette ligne de travail, les soi-disant estimateurs de filtre spectral tels que le "spectral cut-off", les itérations de Landweber, et la régularisation de Tikhonov (ridge) ont reçu beaucoup d’attention (par exemple, dans des problèmes statistiques inverses). Il est à noter que le principe d’écart minimal consiste à contrôler les résidus d’un estimateur (qui sont minimisés de manière itérative) et à leur fixer correctement un seuil tel que l’on puisse atteindre une certaine optimalité (minimax). La première partie de cette thèse est consacrée aux garanties théoriques des règles d’arrêt basées sur le principe d’écart minimal et appliquées à la descente de gradient, et à la régression de Tikhonov (ridge) dans le cadre de l’espace de Hilbert à noyau reproduisant (RKHS). Là, nous montrons que ce principe fournit un estimateur fonctionnel optimal minimax de la fonction de régression lorsque le rang du noyau est fini. Cependant, quand nous traitons des noyaux reproduisants de rang infini, l’estimateur résultant sera seulement sous-optimal. En recherchant une solution, nous avons trouvé l’existence de la stratégie dite de lissage polynomial des résidus. Cette stratégie (combinée avec le MDP) s’est avérée optimale pour l’estimateur "spectral cut-off" dans le modèle de séquence gaussienne linéaire. Nous empruntons cette stratégie, modifions la règle d’arrêt en conséquence, et prouvons que le principe d’écart minimal lissé produira un estimateur fonctionnel optimal minimax sur une gamme d’espaces de fonctions, qui comprend la classe de fonctions Sobolev bien connue. Notre deuxième contribution consiste à explorer des propriétés théoriques de la règle d’arrêt d’écart minimal appliquée à la famille plus générale des estimateurs linéaires. La principale difficulté de cette approche est que, contrairement aux estimateurs de filtre spectral considérés précédemment, les estimateurs linéaires ne conduisent plus à des quantités monotones (les biais et variance). Mentionnons que c’est également le cas des algorithmes célèbres tels que la descente de gradient stochastique. Motivés par d’autres applications pratiques, nous travaillons avec l’estimateur de régression des k plus proches voisins largement utilisé, comme premier exemple fiable. Nous montrons que la règle d’arrêt susmentionnée conduit à un estimateur fonctionnel optimal minimax, en particulier sur la classe des fonctions de Lipschitz sur un domaine borné. La troisième contribution consiste à illustrer au moyen de simulations empiriques que, pour le choix du paramètre dans un estimateur linéaire (la méthode des k plus proches voisins, la régression de Nadaraya-Watson, et l’estimateur de sélection de variables), la règle d’arrêt prématuré basée sur le MDP se comporte comparativement bien par rapport à d’autres critères de sélection de modèles, largement utilisés et connus
This work develops and analyzes strategies for constructing instances of the so-called early stopping rules applied to some iterative learning algorithms for estimating the regression function. Such quantities are data-driven rules indicating when to stop the iterative learning process to reach a trade-off between computational costs and the statistical precision. Unlike a large part of the existing literature on early stopping, where these rules only depend on the data in a "weak manner", we provide data-driven solutions for the aforementioned problem without utilizing validation data. The crucial idea exploited here is that of the minimum discrepancy principle (MDP), which shows when to stop an iterative learning algorithm. To the best of our knowledge, this idea dates back to the work of Vladimir A. Morozov in the 1960s-1970s who studied linear ill-posed problems and their regularization, mostly inspired by mathematical physics problems. Among different applications of this line of work, the so-called spectral filter estimators such as spectral cut-off, Landweber iterations, and Tikhonov (ridge) regularization have received quite a lot of attention (e.g., in statistical inverse problems). It is worth mentioning that the minimum discrepancy principle consists in controlling the residuals of an estimator (which are iteratively minimized) and properly setting a threshold for them such that one can achieve some (minimax) optimality. The first part of this thesis is dedicated to theoretical guarantees of stopping rules based on the minimum discrepancy principle and applied to gradient descent, and Tikhonov (ridge) regression in the framework of reproducing kernel Hilbert space (RKHS). There, we show that this principle provides a minimax optimal functional estimator of the regression function when the rank of the kernel is finite. However, when one deals with infinite-rank reproducing kernels, the resulting estimator will be only suboptimal. While looking for a solution, we found the existence of the so-called residuals polynomial smoothing strategy. This strategy (combined with MDP) has been proved to be optimal for the spectral cut-off estimator in the linear Gaussian sequence model. We borrow this strategy, modify the stopping rule accordingly, and prove that the smoothed minimum discrepancy principle yields a minimax optimal functional estimator over a range of function spaces, which includes the well-known Sobolev function class. Our second contribution consists in exploring the theoretical properties of the minimum discrepancy stopping rule applied to the more general family of linear estimators. The main difficulty of this approach is that, unlike the spectral filter estimators considered earlier, linear estimators do no longer lead to monotonic quantities (the bias and variance terms). Let us mention that this is also the case for famous algorithms such as Stochastic Gradient Descent. Motivated by further practical applications, we work with the widely used k-NN regression estimator as a reliable first example. We prove that the aforementioned stopping rule leads to a minimax optimal functional estimator, in particular, over the class of Lipschitz functions on a bounded domain.The third contribution consists in illustrating through empirical experiments that for choosing the tuning parameter in a linear estimator (the k-NN regression, Nadaraya-Watson, and variable selection estimators), the MDP-based early stopping rule performs comparably well with respect to other widely used and known model selection criteria
APA, Harvard, Vancouver, ISO, and other styles
28

Beaudoin, Mathieu. "Découverte de règles de classification pour un système d’aide à la décision pour la surveillance de l'usage des antimicrobiens." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7591.

Full text
Abstract:
L’utilisation inappropriée des antimicrobiens est un problème de taille qui touche jusqu’à 50% des prescriptions chez les patients hospitalisés. Or, la surveillance de l’usage des antimicrobiens à l’échelle d’un hôpital s’avère impossible à effectuer manuellement et requiert l’utilisation d’un système d’aide à la décision. Le système d’aide à la décision APSS - Antimicrobial Prescription Surveillance System - a été développé pour assister le professionnel de la santé dans l’identification des prescriptions inappropriées d’antimicrobiens. Son utilisation a été associée à une amélioration des pratiques de prescription d’antimicrobiens. Cependant, le processus d’acquisition et modélisation de sa connaissance a été long et ardu. Pour pallier cette difficulté, cette thèse présente un module d’apprentissage automatique développé pour permettre à un système comme APSS de découvrir de nouvelles règles de classification de prescriptions à partir des rétroactions de ses utilisateurs. Ce module utilise l’algorithme TIM - Temporal Induction of Classification Models - pour découvrir des règles temporelles de classification pour catégoriser des séquences d’épisodes comme approprié ou inapproprié. Des résultats d’évaluation démontrent la capacité du module à découvrir des règles cliniquement pertinentes pour plusieurs catégories d’alertes de prescriptions inappropriées. Les règles apprises ont mené à des interventions qui ont été manquées par le système de base. Ces règles ont permis d’étendre la connaissance du système de base en identifiant des pratiques de prescription non appuyées par les experts qui n’étaient pas incluses dans sa base de connaissances. Par contre, la combinaison des règles apprises aux règles du système de base a entraîné une augmentation des faux positifs.
APA, Harvard, Vancouver, ISO, and other styles
29

Kabdebon, Claire. "Sequence encoding in preverbal infants : an electrophysiological perspective." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066614.

Full text
Abstract:
A ce jour, seul le cerveau du nourrisson est capable d’appréhender et de maîtriser la complexité du langage humain. La recherche en psychologie du développement a investi beaucoup d’énergie pour tenter de percer le mystère de l’acquisition du langage, révélant d’impressionnantes capacités précoces permettant le traitement et la représentation de la parole. La récente émergence de techniques de neuro-imagerie non-invasives offre aujourd’hui de nouveaux outils et de nouvelles perspectives pour d’étude des mécanismes d’apprentissage du langage. Cette thèse a pour but d’explorer les mécanismes permettant l’acquisition et la représentation de structures linguistiques, grâce à une approche en électrophysiologie. La première partie de ce manuscrit consiste en une contribution méthodologique à la neuro-imagerie du développement. Sur la base de données acquises en imagerie par résonnance magnétique (IRM), nous avons localisé les positions du système international 10/20 pour le placement d’électrodes – utilisé aussi bien en électroencéphalographie (EEG) qu’en spectroscopie proche infra-rouge (NIRS) – par rapport aux structures cérébrales internes. Cette étude a permis de quantifier la variabilité interindividuelle de ces positions, mais également de construire un modèle de cerveau complété d’un atlas anatomique pour le nourrisson. Dans une seconde partie de cette thèse, grâce à l’EEG haute-densité, nous avons pu démontrer que dès 8 mois, les nourrissons étaient capables de mettre en œuvre de puissance mécanismes d’analyse statistique, permettant d’extraire les dépendances entre syllabes non-adjacentes, pour segmenter un flux continu de parole en unités distinctes. L’analyse des réponses neurales a révélé une hiérarchie de processus cérébraux soutenant le traitement des syllabes mais aussi des unités segmentées. Enfin, dans une dernière partie, nous proposons un paradigme expérimental permettant d’étudier non seulement l’extraction mais aussi la représentation de séquences linguistiques sous la forme d’expressions unifiées. Nous avons pu établir grâce à cette étude que dès 5 mois, les nourrissons étaient capables de former de solides représentations de séquences définies par des répétitions, leur permettant de catégoriser et manipuler plusieurs structures. Pour conclure, cette thèse vient compléter les études comportementales sur l’acquisition du langage, grâce à une approche des processus cérébraux soutenant l’apprentissage de séquences. La richesse du signal EEG a permis de mettre en évidence une hiérarchie de traitements complexes
To this day, the infant brain is the only known learning system able to apprehend and master the complexity of the human language. Developmental psychologists have dedicated a lot of efforts to break down the mystery of language acquisition, revealing precocious and impressive abilities for processing and encoding speech sequences. The recent emergence of non-invasive neuroimaging techniques provides a new tool to explore language learning mechanisms from a different perspective. In the present thesis, we aimed at investigating the encoding mechanisms of the structural properties of a speech sequence from an electrophysiological perspective. In the first part of this thesis, we provided the developmental neuroimaging community with a methodological contribution. Based on magnetic resonance imaging (MRI) data, we virtually localized the standardized sensor placement system for both electroencephalography (EEG) and near infrared spectroscopy (NIRS) relative to the internal brain structures, and assessed their variability. We additionally provided an infant brain template with an anatomical atlas which will be valuable for studies in which individual anatomical information cannot be obtained. In the second part of this thesis, using high-density EEG, we demonstrated that 8 month-old infants could deploy powerful learning mechanisms for capturing the statistical dependencies between non-adjacent syllable units, in order to chunk a continuous speech stream. Interestingly, a hierarchy of neural processes tracked both the syllables and the chunked constituents of the sequence. Finally, in a third cognitive EEG study, we proposed an experimental design to assess infants’ ability to not only extract but also encode the structure of speech sequences into unified mental schemas. The results of this study established that 5 month-old infants could form robust mental representations for repetition-based sequences, allowing them to represent, categorize and operate on multiple structures. Inspection of various neural measurements revealed that several stages of the processing hierarchy were affected by the acquired mental representations. Overall, this thesis complements behavioral research on language acquisition with a window onto the early neural mechanisms allowing sequence encoding, revealing a hierarchy of increasingly complex computations in the encoding of linguistic structures
APA, Harvard, Vancouver, ISO, and other styles
30

Perrin, Pierre. "Territoires et diffusion des règles sociales : vers une théorie de la coexistence et de la convergence institutionnelles." Aix-Marseille 3, 2003. http://www.theses.fr/2003AIX32022.

Full text
Abstract:
Une question suscitée par la concurrence institutionnelle des territoires est de savoir ce qu'il faut en attendre : uniformisation ou diversité institutionnelle ?Plusieurs modèles proposent des réponses à cette question, mais leurs hypothèses fondamentales les conduisent à ignorer des manifestations importantes de la diffusion. La thèse tente de remédier à cette limite. Par une analyse de la proximité dans les réseaux sociaux, la thèse montre que, dans chaque territoire, les règles se transforment en même temps qu'elles se propagent. Par la suite, chaque territoire étant identifié à un ensemble de règles interdépendantes, la thèse explique comment, pendant la diffusion trans-territoriale, la différenciation des règles vise à rétablir leur cohérence avec les institutions propres aux territoires d'accueil. La diffusion d'une institution ne rime alors plus avec uniformisation mais avec différenciation, ce qui induit la persistance de la concurrence institutionnelle des territoires
An issue at stake in institutional competition between territories is to determine to what it leads: institutional standardization or diversity?Several models answer to this question. However, their fundamental assumptions lead to ignore some important characteristics of the diffusion process. This work tries to remedy to this limit. Through an analysis of proximity into social networks, this work shows that rules transform when they spread within territories. Secondly, when the identity of territories is perceived as a set of interdependent rules, the dissertation explains how the differentiation of rules that spreads, aims at making them consistent with the institutions of the different territories. Then, the diffusion of an institution does not lead to an institutional and territorial standardization. This process induces the persistence of institutional competition between territories
APA, Harvard, Vancouver, ISO, and other styles
31

Benard, Julie. "Apprentissages visuels chez l'abeille Apis mellifera : de la généralisation à l'extraction de règles." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/125/.

Full text
Abstract:
Ce travail présente différents types d'apprentissages visuels de complexité cognitive croissante, chez l'abeille Apis mellifera en libre vol, allant de la généralisation de couleurs à l'extraction de règles. Notre première étude suggère que les gradients de généralisation générés par deux couleurs récompensées s'additionnent linéairement pour donner un gradient de généralisation résultant. Nous avons également observé des asymétries dans les gradients de généralisation, indépendantes de la distance perceptive entre stimuli. Notre seconde étude, directement motivée par la présence de ces asymétries, montre que les abeilles peuvent catégoriser des couleurs en deux catégories " jaunâtre " vs. " bleuâtre ". Dans une troisième série d'expériences utilisant des patterns achromatiques, nous montrons que les abeilles peuvent intégrer différentes orientations dans une représentation de type configurale et l'utiliser pour catégoriser de nouveaux patterns. Enfin, notre quatrième étude s'intéressant aux inférences transitives ne met pas en évidence ce type de raisonnement notamment à cause de contraintes mnésiques présentes chez l'abeille. L'ensemble de ce travail contribue à la compréhension des capacités cognitives des insectes dans le domaine visuel, permettant ainsi une meilleure définition de notre modèle afin de réaliser de façon appropriée des études comparées d'un point de vue cognitif
This work presents different kind of visual learning with increasing cognitive requirements in free-flying honeybees Apis mellifera, from color generalization to rules extraction. We first study color generalization in bees trained to two rewarding colors, and we observe that their performances are consistent with a linear summation of the two generalization gradients generated by two trained colors. These gradients are asymmetric as control bees respond to the test stimuli as if these belong to different similarity classes in spite of having similar perceptual distances separating them. Our results suggest that color categories could exist in honeybees. Therefore, in a second study we show that bees can master a color categorization task. Bees treat bluish and yellowish stimuli as belonging to different classes. In a third study, we show that bees trained with complex achromatic patterns sharing a common layout comprising four edge orientations remember these orientations simultaneously in their appropriate positions. Moreover, we show that bees can use this kind of representation to categorize novel stimuli, and that stimulation of the achromatic L-photoreceptor is necessary for this task. In the last study, we asked whether bees could solve a transitive inference problem. We find that bees do not establish transitive inferences but, rather, guide their choices by the joint action of a recency effect and the associative strength of the stimuli. This all work contributes to a better comprehension of the visual cognitive abilities in insects and to determine precisely the abilities of the small bee brain to situate cognitive research into an appropriate comparative frame
APA, Harvard, Vancouver, ISO, and other styles
32

Abramé, André. "Max-résolution et apprentissage pour la résolution du problème de satisfiabilité maximum." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4330/document.

Full text
Abstract:
Cette thèse porte sur la résolution du problème d'optimisation Maximum Satisfiability (Max-SAT). Nous y étudions en particulier les mécanismes liés à la détection et à la transformation des sous-ensembles inconsistants par la règle de la max-résolution. Dans le contexte des solveurs de type séparation et évaluation, nous présentons plusieurs contributions liées au calcul de la borne inférieure. Cela va du schéma d'application de la propagation unitaire utilisé pour détecter les sous-ensembles inconsistants à l'extension des critères d'apprentissage et à l'évaluation de l'impact des transformations par max-résolution sur l'efficacité des solveurs. Nos contributions ont permis l'élaboration d'un nouvel outil de résolution compétitif avec les meilleurs solveurs de l'état de l'art. Elles permettent également de mieux comprendre le fonctionnement des méthodes de type séparation et évaluation et apportent des éléments théoriques pouvant expliquer l'efficacité et les limites des solveurs existants. Cela ouvre de nouvelles perspectives d'amélioration, en particulier sur l'augmentation de l'apprentissage et la prise en compte de la structure interne des instances. Nous présentons également un exemple d'utilisation de la règle de la max-résolution dans un algorithme de recherche local
This PhD thesis is about solving the Maximum Satisfiability (Max-SAT) problem. We study the mechanisms related to the detection and transformations of the inconsistent subsets by the max-resolution rule. In the context of the branch and bound (BnB) algorithms, we present several contributions related to the lower bound computation. They range from the study of the unit propagation scheme used to detect inconsistent subsets to the extension of the learning criteria and to the evaluation of the impact of the max-resolution transformations on the BnB solvers efficiency. Thanks to our contributions, we have implemented a new solver which is competitive with the state of art ones. We give insights allowing a better understanding of the behavior of BnB solvers as well as theoretical elements which contribute to explain the efficiency of these solvers and their limits. It opens new development perspectives on the learning mechanisms used by BnB solvers which may lead to a better consideration of the instances structural properties. We also present an example of integration of the max-resolution inference rule in a local search algorithm
APA, Harvard, Vancouver, ISO, and other styles
33

Rossant, Florence. "Reconnaissance de partitions musicales par modélisation floue des informations extraites et des règles de notation." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002037.

Full text
Abstract:
Nous présentons dans cette thèse une méthode complète de reconnaissance de partitions musicales imprimées, dans le cas monodique. Le système procède en deux phases distinctes : - La segmentation et l'analyse des symboles (essentiellement par corrélation), conçues pour surmonter les difficultés liées aux interconnexions et aux défauts d'impression, aboutissant à des hypothèses de reconnaissance. - L'interprétation de haut niveau, fondée sur une modélisation floue des informations extraites de l'image et des règles de notation, menant à la décision. Dans cette approche, la décision est reportée tant que le contexte n'est pas entièrement connu. Toutes les configurations d'hypothèses sont successivement évaluées, et la plus cohérente est retenue, par optimisation de tous les critères. Le formalisme utilisé, fondé sur la théorie des ensembles flous et des possibilités, permet de prendre en compte les différentes sources d'imprécision et d'incertitude, ainsi que la souplesse et la flexibilité de l'écriture musicale. Afin de gagner en fiabilité, nous proposons également des méthodes d'indication automatique des erreurs potentielles de reconnaissance, ainsi qu'une procédure d'apprentissage, optimisant les paramètres du système pour le traitement d'une partition particulière. Les performances obtenues sur une large base de données ont permis de montrer l'intérêt de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
34

Belhaoues, Rachid. "La découverte de règles chez l'homme et la souris : étude chez des sujets sains et cérébro-lésés." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11022.

Full text
Abstract:
Il est classique en psychologie cognitive de considérer la découverte de règles comme impliquant chez l'homme des processus de haut niveau (logique formelle, modèle mental. . . ), alors qu'il est classique de considérer chez l'animal qu'elle est sous-tendue par des processus de plus bas niveau d'apprentissage et de mémorisation. A cette différence théorique correspond-il une différence comportementale qui pourrait lui être rapportée ? Pour tenter de répondre à cette question, nous avons réalisé des expériences similaires chez l'homme et la souris, qui se réfèrent directement au paradigme de réponses différées avec découvertes successives de règles utilisé par Verin et Dubois en 1993 chez des sujets humains normaux et porteurs d'une lésion vasculaire du cortex préfrontal. L'utilisation de ce paradigme a permis à ces auteurs d'observer un comportement d'alternance spontanée manifesté dès le début de la première épreuve par les patients porteurs d'une lésion du cortex préfrontal dorso-latéral. Cette information a contribué à suggérer l'hypothèse de l'existence d'une organisation comportementale à deux niveaux qui expliquerait les performances des sujets humains dans les activités de découverte de règles. En ayant recours d'une part à une nouvelle version du paradigme de réponses différées et d'autre part en développant un modèle souris de découverte de règles, nous avons montré que la même hypothèse peut être avancée pour expliquer les performances comportementales des sujets humains et souris dans les épreuves de paradigmes de réponses différées avec découvertes successives de règles.
APA, Harvard, Vancouver, ISO, and other styles
35

Si, Fodil David Mohand. "Commande floue et optimisation de base de règles floues pour la régulation de la réactivité et de la température moyenne dans les réacteurs nucléaires à eau pressurisée." Châtenay-Malabry, Ecole centrale de Paris, 2000. http://www.theses.fr/2000ECAP0865.

Full text
Abstract:
La logique floue doit son succès à sa capacité de représenter une expertise faisant appel à des notions non booléennes. Elle fournit une méthode systématique pour exprimer la compréhension qualitative que nous avons du fonctionnemnt de systèmes. Elle conduit à de nombreuses applications, notamment dans le domaine du contrôle des processus industriels. L'application de la logique floue ne s'est, cependant, pas généralisée dans les domaines pour lesquels la base de règles doit être à chaque fois adaptée au système sur lequel elle est utilisée. Les motivations des chercheurs sont la volonté de mettre au point des systèmes flous adaptatifs, la diminution du temps de développement des bases de règles floues, la volonté de garantir l'optimalité d'une base de règles floues par rapport au système sur lequel elle s'applique. En particulier, nous avons étudié dans cette thèse la méthode de descente du gradient, qui permet de réaliser des optimisations en temps réel. Nous l'avons adaptée à notre problème du contrôle d'un réacteur nucléaire à eau pressurisée (REP). L'usage de la commande floue s'est largement répandu ces dernières années, cependant, malgré sa simplicité, il est parfois difficile d'adapter ce type de commande à certains systèmes complexes. Nous avons appliqué la commande floue dans le cadre des réacteurs nucléaires à eau pressurisée, dont la complexité interdit le recours aux méthodes de contrôle classique. Cette application consiste à réaliser une méthode de commande à l'aide d'une base de règles floues obtenue par apprentissage en temps réel.
APA, Harvard, Vancouver, ISO, and other styles
36

Audet, Marie-Josée. "Apprentissage et critique de règles de la communication publique lors d'un débat public : le cas des représentants étudiants lors de la grève de 2012 au Québec." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27536.

Full text
Abstract:
Ce mémoire porte sur les modalités de l’apprentissage et de la critique des règles de la communication publique par les représentants étudiants lors de la grève étudiante de 2012 au Québec. En tenant compte des caractéristiques particulières des organisations étudiantes et des conditions dans lesquelles les représentants étudiants apprennent les rudiments des rôles d’attaché de presse et de porte-parole, ce mémoire propose d’étudier les modalités de l’apprentissage et de la critique des règles de la communication publique. Des acteurs nouveaux qui ne bénéficient pas des mêmes ressources humaines et financières que les acteurs gouvernementaux et médiatiques, mais avec qui ils ont débattu publiquement à l’occasion de la grève étudiante de 2012. Comment ont-ils appris les règles de la communication publique dans un débat public intense et animé qui a par la suite pris des allures de crise sociale? Suite à l’expérience de 2012, ces personnes sont devenues beaucoup plus connues et reconnues. Nous voulons comprendre comment les différentes façons d’apprendre des règles de la communication publique sont tributaires de l’environnement particulier et du contexte dans lequel se trouvaient alors les représentants étudiants. Nous voulons également nous attarder au contenu de l’apprentissage et de la critique pour mieux comprendre quelles sortes de règles sont apprises et quelles en sont les fonctions stratégiques. La recherche prend appui sur une analyse qualitative d’entrevues télévisées diffusées à l’émission 24 heures en 60 minutes et sur une série d’entretiens semi-dirigés avec des représentants étudiants. Mots-clés : Acteurs nouveaux; Apprentissage; Critique des règles de la communication publique; Débat public; Grève étudiante de 2012.
This thesis deals with the methods of learning and criticizing the rules of public communication by student representatives during the student strike in 2012 in Quebec. Taking into account the particular characteristics of student organizations and the conditions in which student representatives learn the rudiments of the roles of press officer and spokesperson, this paper proposes to study the modalities of learning and criticism of rules of public communication. New actors who do not benefit from the same human and financial resources as government and media actors, but with whom they publicly debated during the 2012 student strike. How did they learn the rules of public communication in an intense and animated public debate which subsequently degenerated into a social crisis? As a result of the 2012 experience, these individuals became much more known and recognized, and gained notoriety. We want to understand how the different ways of learning about the rules of public communication depend on the particular environment and the context in which the student representatives were at that time. We also want to focus on the content of learning and criticism to better understand what kinds of rules are learned and what are their strategic functions. The research is based on a qualitative interview analysis of the public affair program 24 heures en 60 minutes, on RDI, and a series of semi-conducted interviews with student representatives. Keywords: Criticism of rules of public communication; Learning; New players; Public debate; Student strike of 2012
APA, Harvard, Vancouver, ISO, and other styles
37

Ghemmogne, Fossi Leopold. "Gestion des règles basée sur l'indice de puissance pour la détection de fraude : Approches supervisées et semi-supervisées." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI079.

Full text
Abstract:
Cette thèse traite de la détection de fraude par carte de crédit. Selon la Banque Centrale Européenne, la valeur des fraudes utilisant des cartes en 2016 s'élevait à 1,8 milliard d'euros. Le défis pour les institutions est de réduire ces fraudes. En règle générale, les systèmes de détection de la fraude sont consistués d'un système automatique construit à base de règles "si-alors" qui contrôlent toutes les transactions en entrée et déclenchent une alerte si la transaction est considérée suspecte. Un groupe expert vérifie l'alerte et décide si cette dernière est vrai ou pas. Les critères utilisés dans la sélection des règles maintenues opérationnelles sont principalement basés sur la performance individuelle des règles. Cette approche ignore en effet la non-additivité des règles. Nous proposons une nouvelle approche utilisant des indices de puissance. Cette approche attribue aux règles un score normalisé qui quantifie l'influence de la règle sur les performances globales du groupe de règles. Les indice utilisés sont le "Shapley Value" et le "Banzhaf Value". Leurs applications sont: 1) Aide à la décision de conserver ou supprimer une règle; 2) Sélection du nombre k de règles les mieux classées, afin de travailler avec un ensemble plus compact. En utilisant des données réelles de fraude par carte de crédit, nous montrons que: 1) Cette approche permet de mieux évaluer les performances du groupe plutot que de les évaluer isolément. 2) La performance de l'ensemble des règles peut être atteinte en conservant le dixième des règles. Nous observons que cette application peut être comsidérée comme une tâche de sélection de caractéristiques:ainsi nous montrons que notre approche est comparable aux algorithmes courants de sélection des caractéristiques. Il présente un avantage dans la gestion des règles, car attribue un score normalisé à chaque règle. Ce qui n'est pas le cas pour la plupart des algorithmes, qui se concentrent uniquement sur une solution d'ensemble. Nous proposons une nouvelle version du Banzhaf Value, à savoir le k-Banzhaf; qui surclasse la précedente en terme de temps de calcul et possède des performances comparables. Enfin, nous mettons en œuvre un processus d’auto-apprentissage afin de renforcer l’apprentissage dans un algorithme. Nous comparons ces derniers avec nos trois indices de puissance pour effectuer une classification sur les données de fraude par carte de crédit. En conclusion, nous observons que la sélection de caractéristiques basée sur les indices de puissance a des résultats comparables avec les autres algorithmes dans le processus d'auto-apprentissage
This thesis deals with the detection of credit card fraud. According to the European Central Bank, the value of frauds using cards in 2016 amounted to 1.8 billion euros. The challenge for institutions is to reduce these frauds. In general, fraud detection systems consist of an automatic system built with "if-then" rules that control all incoming transactions and trigger an alert if the transaction is considered suspicious. An expert group checks the alert and decides whether it is true or not. The criteria used in the selection of the rules that are kept operational are mainly based on the individual performance of the rules. This approach ignores the non-additivity of the rules. We propose a new approach using power indices. This approach assigns to the rules a normalized score that quantifies the influence of the rule on the overall performance of the group. The indexes we use are the Shapley Value and Banzhaf Value. Their applications are 1) Decision support to keep or delete a rule; 2) Selection of the number k of best-ranked rules, in order to work with a more compact set. Using real credit card fraud data, we show that: 1) This approach performs better than the one that evaluates the rules in isolation. 2) The performance of the set of rules can be achieved by keeping one-tenth of the rules. We observe that this application can be considered as a task of selection of characteristics: We show that our approach is comparable to the current algorithms of the selection of characteristics. It has an advantage in rule management because it assigns a standard score to each rule. This is not the case for most algorithms, which focus only on an overall solution. We propose a new version of Banzhaf Value, namely k-Banzhaf; which outperforms the previous in terms of computing time and has comparable performance. Finally, we implement a self-learning process to reinforce the learning in an automatic learning algorithm. We compare these with our power indices to rank credit card fraud data. In conclusion, we observe that the selection of characteristics based on the power indices has comparable results with the other algorithms in the self-learning process
APA, Harvard, Vancouver, ISO, and other styles
38

Mita, Graziano. "Toward interpretable machine learning, with applications to large-scale industrial systems data." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS112.

Full text
Abstract:
Les contributions présentées dans cette thèse sont doubles. Nous fournissons d'abord un aperçu général de l'apprentissage automatique interprétable, en établissant des liens avec différents domaines, en introduisant une taxonomie des approches d'explicabilité. Nous nous concentrons sur l'apprentissage des règles et proposons une nouvelle approche de classification, LIBRE, basée sur la synthèse de fonction booléenne monotone. LIBRE est une méthode ensembliste qui combine les règles candidates apprises par plusieurs apprenants faibles ascendants avec une simple union, afin d'obtenir un ensemble final de règles interprétables. LIBRE traite avec succès des données équilibrés et déséquilibrés, atteignant efficacement des performances supérieures et une meilleure interprétabilité par rapport aux plusieurs approches. L'interprétabilité des représentations des données constitue la deuxième grande contribution à ce travail. Nous limitons notre attention à l'apprentissage des représentations démêlées basées sur les autoencodeurs variationnels pour apprendre des représentations sémantiquement significatives. Des contributions récentes ont démontré que le démêlage est impossible dans des contextes purement non supervisés. Néanmoins, nous présentons une nouvelle méthode, IDVAE, avec des garanties théoriques sur le démêlage, dérivant de l'emploi d'une distribution a priori exponentiel optimal factorisé, conditionnellement dépendant de variables auxiliaires complétant les observations d'entrée. Nous proposons également une version semi-supervisée de notre méthode. Notre campagne expérimentale montre qu'IDVAE bat souvent ses concurrents selon plusieurs métriques de démêlage
The contributions presented in this work are two-fold. We first provide a general overview of explanations and interpretable machine learning, making connections with different fields, including sociology, psychology, and philosophy, introducing a taxonomy of popular explainability approaches and evaluation methods. We subsequently focus on rule learning, a specific family of transparent models, and propose a novel rule-based classification approach, based on monotone Boolean function synthesis: LIBRE. LIBRE is an ensemble method that combines the candidate rules learned by multiple bottom-up learners with a simple union, in order to obtain a final intepretable rule set. Our method overcomes most of the limitations of state-of-the-art competitors: it successfully deals with both balanced and imbalanced datasets, efficiently achieving superior performance and higher interpretability in real datasets. Interpretability of data representations constitutes the second broad contribution to this work. We restrict our attention to disentangled representation learning, and, in particular, VAE-based disentanglement methods to automatically learn representations consisting of semantically meaningful features. Recent contributions have demonstrated that disentanglement is impossible in purely unsupervised settings. Nevertheless, incorporating inductive biases on models and data may overcome such limitations. We present a new disentanglement method - IDVAE - with theoretical guarantees on disentanglement, deriving from the employment of an optimal exponential factorized prior, conditionally dependent on auxiliary variables complementing input observations. We additionally propose a semi-supervised version of our method. Our experimental campaign on well-established datasets in the literature shows that IDVAE often beats its competitors according to several disentanglement metrics
APA, Harvard, Vancouver, ISO, and other styles
39

Cadot, Martine. "Extraire et valider les relations complexes en sciences humaines : statistiques, motifs et règles d'association." Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00594174.

Full text
Abstract:
Cette thèse concerne la fouille de données en sciences humaines. Cette branche récente de l'intelligence artificielle consiste en un ensemble de méthodes visant à extraire de la connaissance à partir de données stockées sur des supports informatiques. Parmi celles-ci, l'extraction de motifs et de règles d'association est une méthode de traitement des données qui permet de représenter de façon symbolique la structure des données, comme le font les méthodes statistiques classiques, mais qui, contrairement à celles-ci, reste opérationnelle en cas de données complexes, volumineuses. Toutefois ce modèle informatique des données, construit à partir de comptages de cooccurrences, n'est pas directement utilisable par les chercheurs en sciences humaines : il est essentiellement dédié aux données dichotomiques (vrai/faux), ses résultats directs, très morcelés, sont difficiles à interpréter, et sa validité peut paraître douteuse aux chercheurs habitués à la démarche statistique. Nous proposons des techniques que nous avons construites puis expérimentées sur des données réelles dans le but de réduire les difficultés d'utilisation que nous venons de décrire : 1) un test de randomisation à base d'échanges en cascade dans la matrice sujets x propriétés permet d'obtenir les liaisons statistiquement significatives entre deux propriétés, 2) une extension floue de la méthode d'extraction classique des motifs, qui produit des règles d'association floues généralisant les règles binaires et proches des règles floues définies par les chercheurs poursuivant les travaux de Zadeh, 3) MIDOVA, un algorithme extrayant les interactions n-aires entre variables - problème peu connu, peu abordé en informatique, et abordé avec de fortes limitations en statistiques - et 4) des méta-règles pour nettoyer le jeu de règles d'association de ses principales contradictions et redondances.
APA, Harvard, Vancouver, ISO, and other styles
40

Tsopze, Norbert. "Treillis de Galois et réseaux de neurones : une approche constructive d'architecture des réseaux de neurones." Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0407/document.

Full text
Abstract:
Les réseaux de neurones artificiels connaissent des succès dans plusieurs domaines. Maisles utilisateurs des réseaux de neurones sont souvent confrontés aux problèmes de définitionde son architecture et d’interprétabilité de ses résultats. Plusieurs travaux ont essayé d’apporterune solution à ces problèmes. Pour les problèmes d’architecture, certains auteurs proposentde déduire cette architecture à partir d’un ensemble de connaissances décrivant le domaine duproblème et d’autres proposent d’ajouter de manière incrémentale les neurones à un réseauayant une taille initiale minimale. Les solutions proposées pour le problème d’interprétabilitédes résultats consistent à extraire un ensemble de règles décrivant le fonctionnement du réseau.Cette thèse contribue à la résolution de ces deux problèmes. Nous nous limitons à l’utilisationdes réseaux de neurones dans la résolution des problèmes de classification.Nous présentons dans cette thèse un état de l’art des méthodes existantes de recherche d’architecturede réseaux de neurones : une étude théorique et expérimentale est aussi faite. Decette étude, nous observons comme limites de ces méthodes la disponibilité absolue des connaissancespour construire un réseau interprétable et la construction des réseaux difficiles à interpréteren absence de connaissances. En alternative, nous proposons une méthode appelée CLANN(Concept Lattice-based Artificial Neural network) basée les treillis de Galois qui construit undemi-treillis à partir des données et déduire de ce demi-treillis l’architacture du réseau. CLANNétant limitée à la résolution des problèmes à deux classes, nous proposons MCLANN permettantd’étendre cette méthodes de recherche d’architecture des réseaux de neurones aux problèmes àplusieurs classes.Nous proposons aussi une méthode appelée ’Approche des MaxSubsets’ pour l’extractiondes règles à partir d’un réseau de neurones. La particularité de cette méthode est la possibilitéd’extraire les deux formats de règles (’si alors’ et ’m parmi N’) à partir d’une structure quenous construisons. Nous proposons aussi une façon d’expliquer le résultat calculé par le réseauconstruit par la méthode MCLANN au sujet d’un exemple
The artificial neural networks are successfully applied in many applications. But theusers are confronted with two problems : defining the architecture of the neural network able tosolve their problems and interpreting the network result. Many research works propose some solutionsabout these problems : to find out the architecture of the network, some authors proposeto use the problem domain theory and deduct the network architecture and some others proposeto dynamically add neurons in the existing networks until satisfaction. For the interpretabilityproblem, solutions consist to extract rules which describe the network behaviour after training.The contributions of this thesis concern these problems. The thesis are limited to the use of theartificial neural networks in solving the classification problem.In this thesis, we present a state of art of the existing methods of finding the neural networkarchitecture : we present a theoritical and experimental study of these methods. From this study,we observe some limits : difficulty to use some method when the knowledges are not available ;and the network is seem as ’black box’ when using other methods. We a new method calledCLANN (Concept Lattice-based Artificial Neural Network) which builds from the training dataa semi concepts lattice and translates this semi lattice into the network architecture. As CLANNis limited to the two classes problems, we propose MCLANN which extends CLANN to manyclasses problems.A new method of rules extraction called ’MaxSubsets Approach’ is also presented in thisthesis. Its particularity is the possibility of extracting the two kind of rules (If then and M-of-N)from an internal structure.We describe how to explain the MCLANN built network result aboutsome inputs
APA, Harvard, Vancouver, ISO, and other styles
41

Latiri, Chiraz. "Extraction de Connaissances a partir de Textes : M ethodes et Applications." Habilitation à diriger des recherches, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00927238.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Daraut, Sandrine. "De l'apprentissage technico-organisationnel ou du rôle des règles dans la structuration de contextes d'interactions - Fondements théoriques et illustrations empiriques." Phd thesis, Université des Sciences Sociales - Toulouse I, 2004. http://tel.archives-ouvertes.fr/tel-00141424.

Full text
Abstract:
Dans ce travail de recherche, nous nous proposons d'apporter une réponse à la problématique du transfert des compétences: où les savoirs et savoir-faire sont-ils stockés; comment s'accumulent-ils et se diffusent-ils au niveau des structures d'action collective? Nous soutenons la thèse selon laquelle seuls, les individus sont à l'origine de dynamiques d'apprentissage propres à abonder une base cognitive collective. Pour ce faire, ces acteurs organisationnels mobilisent, au cours de leurs interactions quotidiennes aux Hommes et aux Machines, des règles et des ressources structurant elles-mêmes les systèmes sociaux. Il s'agit d'acteurs compétents : ces individus agissent intentionnellement ou en connaissance de cause, même si les conséquences de l'action ne sont jamais totalement prévisibles !... Somme toute, il y a production et reproduction du contexte d'action au travers d'une co-évolution entre dynamiques d'apprentissage et construction de l'espace d'interactions aux autres ainsi qu'aux machines: des salariés autonomisés, impliqués au sein et au service de projets d'action collective impriment pratiques et expériences dans les règles formelles ou informelles d'accomplissement des tâches. Et, nous d'appliquer cette théorie de la structuration (A. Giddens) au réseau organisé d'échanges de compétences, résultant de la construction d'un nouveau Système d'Information (SI), au sein des Caisses régionales d'assurance maladie. Un autre champ d'application réside aussi dans les artefacts de stockage, de traitement et de communication des informations. Ce sont, en effet, des outils coordonnateurs, structurés de par leur rigidité technique; ils peuvent, malgré tout, être structurants si leur caractérisation correspond à une dualité intrinsèque: support / objet d'apprentissage. Dans cette perspective, y sont intégrés, à mesure, les résultats des processus d'apprentissage ainsi que les dynamiques relationnelles qui leur sont associées. Cela va dans le sens d'un usage à la fois partagé et personnalisé de ces SI.
APA, Harvard, Vancouver, ISO, and other styles
43

Nouvel, Damien. "Reconnaissance des entités nommées par exploration de règles d'annotation - Interpréter les marqueurs d'annotation comme instructions de structuration locale." Phd thesis, Université François Rabelais - Tours, 2012. http://tel.archives-ouvertes.fr/tel-00788630.

Full text
Abstract:
Ces dernières décennies, le développement considérable des technologies de l'information et de la communication a modifié en profondeur la manière dont nous avons accès aux connaissances. Face à l'afflux de données et à leur diversité, il est nécessaire de mettre au point des technologies performantes et robustes pour y rechercher des informations. Les entités nommées (personnes, lieux, organisations, dates, expressions numériques, marques, fonctions, etc.) sont sollicitées afin de catégoriser, indexer ou, plus généralement, manipuler des contenus. Notre travail porte sur leur reconnaissance et leur annotation au sein de transcriptions d'émissions radiodiffusées ou télévisuelles, dans le cadre des campagnes d'évaluation Ester2 et Etape. En première partie, nous abordons la problématique de la reconnaissance automatique des entités nommées. Nous y décrivons les analyses généralement conduites pour traiter le langage naturel, discutons diverses considérations à propos des entités nommées (rétrospective des notions couvertes, typologies, évaluation et annotation) et faisons un état de l'art des approches automatiques pour les reconnaître. A travers la caractérisation de leur nature linguistique et l'interprétation de l'annotation comme structuration locale, nous proposons une approche par instructions, fondée sur les marqueurs (balises) d'annotation, dont l'originalité consiste à considérer ces éléments isolément (début ou fin d'une annotation). En seconde partie, nous faisons état des travaux en fouille de données dont nous nous inspirons et présentons un cadre formel pour explorer les données. Les énoncés sont représentés comme séquences d'items enrichies (morpho-syntaxe, lexiques), tout en préservant les ambigüités à ce stade. Nous proposons une formulation alternative par segments, qui permet de limiter la combinatoire lors de l'exploration. Les motifs corrélés à un ou plusieurs marqueurs d'annotation sont extraits comme règles d'annotation. Celles-ci peuvent alors être utilisées par des modèles afin d'annoter des textes. La dernière partie décrit le cadre expérimental, quelques spécificités de l'implémentation du système (mXS) et les résultats obtenus. Nous montrons l'intérêt d'extraire largement les règles d'annotation, même celles qui présentent une moindre confiance. Nous expérimentons les motifs de segments, qui donnent de bonnes performances lorsqu'il s'agit de structurer les données en profondeur. Plus généralement, nous fournissons des résultats chiffrés relatifs aux performances du système à divers point de vue et dans diverses configurations. Ils montrent que l'approche que nous proposons est compétitive et qu'elle ouvre des perspectives dans le cadre de l'observation des langues naturelles et de l'annotation automatique à l'aide de techniques de fouille de données.
APA, Harvard, Vancouver, ISO, and other styles
44

Zumpe, Martin Kai. "Stabilité macroéconomique, apprentissage et politique monétaire : une approche comparative : modélisation DSGE versus modélisation multi-agents." Thesis, Bordeaux 4, 2012. http://www.theses.fr/2012BOR40022/document.

Full text
Abstract:
Cette thèse analyse le rôle de l’apprentissage dans deux cadres de modélisation distincts. Dans le cas dunouveau modèle canonique avec apprentissage adaptatif, les caractéristiques les plus marquantes des dynamiquesd’apprentissage concernent la capacité des règles de politique monétaire à assurer la convergencevers l’équilibre en anticipations rationnelles. Le mécanisme de transmission de la politique monétaire estcelui de l’effet de substitution associé au canal de la consommation. Dans le cas d’un modèle multi-agentsqui relâche des hypothèses restrictives du nouveau modèle canonique, tout en restant structurellementproche de celui-ci, les variables agrégées évoluent à bonne distance de cet équilibre, et on observe desdynamiques nettement différentes. La politique monétaire influence les variables agrégées de manièremarginale via l’effet de revenu du canal de la consommation. En présence d’un processus d’apprentissagesocial évolutionnaire, l’économie converge vers un faible niveau d’activité économique. L’introductiond’un processus caractérisé par le fait que les agents apprennent individuellement à l’aide de leurs modèlesmentaux atténue le caractère dépressif des dynamiques d’apprentissage. Ces différences entre les deuxcadres de modélisation démontrent la difficulté de généraliser les résultats du nouveau modèle canonique
This thesis analyses the role of learning in two different modelling frameworks. In the new canonicalmodel with adaptive learning, the most remarkable characteristics of the learning dynamics deal withthe capacity of monetary policy rules to guaranty convergence to the rational expectations equilibrium.The transmission mechanism of the monetary policy is based on the substitution effect associated to theconsumption channel. In the case of an agent-based model which relaxes some restrictive assumptionsof the new canonical model - but is endowed with a similar structure - aggregate variables evolve atsome distance from the rational expectations equilibrium. Monetary policy has a marginal impact onthe agregated variables via the wealth effect of the consumption channel. When agents learn accordingto an evolutionnary social learning process, the economy converges to regions of low economic activity.The introduction of a process where agents learn individually by using their mental models induces lessdepressive learning dynamics. These differences between the two modelling frameworks show that thegeneralisation of the results of the new canonical model is not easy to achieve
APA, Harvard, Vancouver, ISO, and other styles
45

Pasquali, Antoine. "Learning with and without consciousness: empirical and computational explorations." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210269.

Full text
Abstract:
Is it possible to learn without awareness? If so, what can learn without awareness, and what are the different mechanisms that differentiate between learning with and without consciousness? How can best measure awareness?

Here are a few of the many questions that I have attempted to investigate during the past few years. The main goal of this thesis was to explore the differences between conscious and unconscious learning. Thus, I will expose the behavioral and computational explorations that we conducted during the last few years. To present them properly, I first review the main concepts that, for almost a century now, researchers in the fields of neuroscience have formulated in order to tackle the issues of both learning and consciousness. Then I detail different hypotheses that guided our empirical and computational explorations. Notably, a few series of experiments allowed identification of several mechanisms that participate in either unconscious or conscious learning. In addition we explored a computational framework for explaining how one could learn unconsciously and nonetheless gain subjective access to one’s mental events. After reviewing the unfolding of our investigation, I detail the mechanisms that we identified as responsible for differences between learning with and without consciousness, and propose new hypotheses to be evaluated in the future.


Doctorat en Sciences Psychologiques et de l'éducation
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
46

Colombet-Madinier, Isabelle. "Aspects méthodologiques de la prédiction du risque cardiovasculaire : apports de l'apprentissage automatique." Paris 6, 2002. http://www.theses.fr/2002PA066083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Cayla, David. "L'apprentissage organisationnel entre processus adaptatif et changement dirigé." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2007. http://tel.archives-ouvertes.fr/tel-00198591.

Full text
Abstract:
Cette thèse est consacrée à l'étude théorique de l'apprentissage organisationnel. Après avoir constaté les difficultés des approches actuelles à appréhender ce phénomène, nous proposons un modèle théorique fondé sur une typologie qui distingue les processus adaptatifs de ceux qui sont encadrés par une intention. Pour ce faire, nous nous interrogeons sur les fondements cognitifs de l'apprentissage en analysant d'un point de vue critique
les conceptions de la rationalité qui existent en économie. Nous pouvons alors établir, en nous appuyant sur l'apport des sciences cognitives contemporaines, une représentation qui permet d'appréhender différents niveaux d'apprentissage, imbriqués et hiérarchisés.
La seconde partie de cette thèse se penche sur l'apprentissage organisationnel de manière plus spécifique. Après avoir montré comment le critère de cohérence pouvait permettre de distinguer les modes de coordination ex post des modes de coordination ex ante, nous nous intéressons au fonctionnement interne des organisations et à la capacité qu'a le management d'en modifier le comportement. Dans le dernier chapitre, enfin, nous montrons quels apports spécifiques notre approche pourrait avoir dans le cadre des théories modernes des
organisations, et nous nous intéressons à la relation entre la structure organisationnelle et la performance de l'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
48

Shahzad, Muhammad Kashif. "Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771672.

Full text
Abstract:
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
APA, Harvard, Vancouver, ISO, and other styles
49

Bédard, Olsson Janique. "À la Recherche d'Éléments de Phonétique : Une analyse de la phonétique comme outil de travail dans l'enseignement du français dans les lycées suédois." Thesis, Umeå universitet, Lärarhögskolan vid Umeå universitet (LH), 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-51597.

Full text
Abstract:
This examination paper looks into the role of phonetics today in teaching French language to Swedish learners and analyzes the content of upper secondary schoolbooks with regards to phonetic elements. Starting from the statements that French is perceived by Swedish learners as a difficult language and that oral expression has grown in importance in modern language courses’ syllabus, it is believed here that phonetics should be of utmost importance when learning French. As far as language didactics is concerned, it is a fact that research on the subject is almost inexistent. Very little seems to be done to develop and use tools to address phonetics aspects of the language in teaching, especially in learning manuals, that is a hypothesis. The objective here was, therefore, to see whether this could be confirmed. The results show that it is partly the case. Finally, a discussion is raised about ineffectiveness of intuitive learning and all that phonetics has to offer in the teaching of French to Swedish learners.
APA, Harvard, Vancouver, ISO, and other styles
50

Bandon, David. "Maria : une optimisation adaptative d'un archivage d'images médicales par transfert anticipé." Compiègne, 1996. http://www.theses.fr/1996COMPD961.

Full text
Abstract:
Dans cette thèse, nous proposons le système MARIA (systèMe d'Anticipation de la Récupération des Images par Apprentissage) permettant la restitution rapide des examens radiologiques gérés dans un système hospitalier de communication et d'archivage des images (PACS). La technique employée est celle du transfert anticipe qui consiste à anticiper le besoin du clinicien pour sa prochaine consultation. Ainsi, les images significatives du passe radiologique du patient sont copiées par avance sur les disques de la station de consultation. La caractéristique essentielle de MARIA est qu'il repose sur un apprentissage à long terme de la méthode de travail des cliniciens. La sélection des images se fait, ainsi, par l'application successive, jusqu'a l'obtention d'une solution, de trois méthodes dont deux sont évolutives dans le temps. La première méthode, s'appuyant sur des raisonnements à base de cas et de règles, mémorise, puis réutilise les sessions de consultations passées pour proposer une nouvelle sélection d'images. La seconde méthode repose sur la formulation par les cliniciens de jugements de pertinence sur les examens. Ces jugements sont utilisés pour constituer un dossier résumé d'images. Le contenu de ce dossier sera transféré lors d'une anticipation. La troisième méthode sélectionne, par défaut, un nombre pré défini d'examens. Cette stratégie de sélection est intégrée dans un cycle complet d'anticipation décrivant la détection de venue d'un patient, la sélection des images, leur transfert sur les supports de stockage de la station de consultation, la tenue de la séance de consultation et, enfin, l'apprentissage des résultats.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography