Tesi sul tema "Représentation de connaissance et raisonnement"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Représentation de connaissance et raisonnement.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Représentation de connaissance et raisonnement".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Sarmiento, Lozano Camilo. "Formalisation des raisonnements éthiques : modélisation des processus en éthique et modélisation, représentation et automatisation du raisonnement causal". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS047.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le domaine de l'éthique computationnelle dont le but est de formaliser le raisonnement éthique. Autrement dit, ce travail fait partie du domaine qui cherche à reproduire notre capacité en tant qu'êtres rationnels à évaluer moralement une action. Deux objectifs sont recherchés au travers de la formalisation de ce raisonnement : mieux le comprendre et l'intégrer dans des systèmes informatiques de sorte à assurer que les décisions prises soient conformes à des principes moraux choisis.Cette thèse contribue à ce domaine de deux façons. Un premier groupe de contributions est lié à la proposition d'un cadre commun permettant de formaliser de façon fidèle les principes moraux les plus courants dans la philosophie occidentale. Pour reprendre les termes du titre, ce premier groupe de contributions peut être résumé en quelques mots comme la « modélisation des processus en éthique ». Le deuxième groupe de contributions est lié à la proposition d'une formalisation du raisonnement causal. En plus de permettre une meilleure compréhension de ce raisonnement, cette formalisation rend possible de l'intégrer dans des systèmes informatiques de sorte à pouvoir établir des relations causales complexes. Cette capacité intervient dans la formalisation d'un grand nombre de principes moraux. Ayant pour objectif que notre proposition puisse être utilisée dans la formalisation de tous ces principes moraux, nous l'avons conçue de sorte à ce qu'elle satisfasse un certain nombre de conditions. Tout d'abord, notre formalisation repose sur un formalisme permettant de rendre explicites la plupart des subtilités des problèmes, aussi bien pour le raisonnement causal que le raisonnement éthique. Ensuite, la définition de causalité intégrée dans notre formalisme est dépourvue de toute confusion avec la notion de responsabilité. Sans cela, elle ne pourrait pas être commune à la formalisation de tous les principes moraux. Finalement, notre proposition est en capacité de traiter tous les cas causaux, dont les plus complexes. Pour reprendre les termes du titre, ce deuxième groupe de contributions peut être décrit comme la « modélisation, représentation et automatisation du raisonnement causal ». Les contributions principales de cette thèse appartiennent à ce deuxième groupe
This thesis is in the field of computational ethics, which aims to formalise ethical reasoning. In other words, this work is part of the field that seeks to emulate our capacity as rational beings to morally evaluate an action. The formalisation of this reasoning has two objectives: to better understand it and to integrate it into computer systems to ensure that decisions made comply with chosen moral principles.This thesis makes a contribution to the field in two ways. Firstly, it proposes a common framework for formalising faithfully the most common moral principles in Western philosophy. This first contribution can be summarised as 'modelling ethical processes'. The second set of contributions pertains to the proposal for formalising causal reasoning. This formalisation not only enhances our comprehension of this reasoning but also enables its integration into computer systems, facilitating the establishment of complex causal relationships. This capability is crucial for formalising a wide range of moral principles. To ensure that our proposal can formalise all these moral principles, we have designed it to satisfy a number of conditions. Firstly, our formalisation is based on a formalism that explicitly addresses the subtleties of problems related to both causal and ethical reasoning. Secondly, our formalism's definition of causality free of any confusion with the notion of responsibility. Otherwise, it would not be common to formalise all moral principles. Finally, our proposal can handle all causal cases, including the most complex. The second group of contributions focuses on 'modelling, representing and automating causal reasoning'. The main contributions of this thesis belong to this second group
2

Popov, Valentin. "Contribution à la représentation et à la résolution du problème de conception déclarative de scènes 3D en synthèse d'image". Poitiers, 2000. http://www.theses.fr/2000POIT2306.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these se place a la frontiere de la conception de l'univers physique et de l'univers numerique dans un cadre declaratif. C'est une demarche qui vise la construction des scenes (configurations d'objets 3d) a partir de la donnee qualitative, incomplete et incertaine d'un ensemble de proprietes. Nous proposons d'abord la methode de conception hi-commode a base de connaissance, sur le produit et le processus de conception. Par conceptualisation sous forme d'un modele neutre dit virtuel, elle rend le modele geometrique du produit independant des moyens graphiques. A ce titre, hi-commode integre des techniques de conceptualisation pour la representation et le raisonnement classificatoire multi-points de vue, la propagation des contraintes spatiales qualitatives et causales probabilistes et d'operationalisation pour l'interpretation du modele virtuel, la construction et la manipulation de structures geometriques. Les activites de raisonnement sont definies dans une phase de resolution, que nous introduisons dans la modelisation declarative. La tache de cette phase est de completer la description initiale floue et incomplete par des techniques classificatoires de parcours de taxinomies des connaissances anterieures et de propagation de contraintes. La methode hi-commode s'appuie sur un modele conceptuel qui definit le type et la structuration des concepts de la description des modeles geometriques et des concepts d'apparence des scenes a la base des meta-modeles fonctionnel, structurel, geometrique, spatial, de l'aspect realiste et causale probabiliste. Chaque meta-modele est decompose en taxinomies locales differentes, associees aux points de vue concepteur. Le processus de resolution propose, conduit soit vers la construction d'une famille des scenes quand la description est coherente, soit vers la detection des incoherences de la description et la proposition de solutions par defaut pertinentes. Ensuite nous proposons un langage a objet multifonctionnel de haut niveau d'abstraction baptise soml, utilise comme un outil d'aide a la conception et un procede de verification de l'idee du concepteur. Ce langage peut structurer sous formes de classes d'objets les connaissances statiques (proprietes) et les connaissances dynamiques (taches et methodes). Il permet une assistance durant toutes les phases du processus de conception. Les scenes creees peuvent etre ensuite facilement modifiees et reutilisees. Enfin, la methode hi-commode et le langage soml sont implantes dans un environnement decodes, operationnel sous unix. Il integre une interface graphique, un systeme de resolution, un modeleur geometrique de solides fonde sur des arbres csg et un logiciel de visualisation.
3

Mengin, Jérôme. "Raisonnement par défaut : résolutions de conflits et priorités". Paris 11, 1994. http://www.theses.fr/1994PA112101.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'un des thèmes actuels de recherche en intelligence artificielle concerne la formalisation de certains types de raisonnement, en vue d'une automatisation. Cette thèse s'intéresse au raisonnement dit par défaut, à partir de connaissances incomplètes. Après une revue de plusieurs travaux sur ce sujet, la thèse présente un formalisme permettant de tenir compte, de manière intuitive, de préférence parmi les connaissances à inférer par défaut. Ce formalisme est basé sur la notion de résolution de conflits. L'intérêt de ce formalisme réside dans sa souplesse, qui permet de l'appliquer dans plusieurs domaines. Il permet en particulier de capturer des concepts utilisés dans de nombreuses autres logiques formalisant le raisonnement par défaut, et de combiner ces concepts entre eux ainsi que de les utiliser en présence de préférence. Dans la dernière partie, la thèse présente un algorithme permettant d'automatiser la forme de raisonnement capturé par ce formalisme. Cet algorithme est une adaptation d'un algorithme de résolution de conflits utilisé dans le domaine du diagnostic. Enfin, la thèse présente un algorithme permettant de calculer les inconsistances en logique des défauts, ce qui permet alors d'implémenter un démonstrateur de théorèmes pour cette logique
4

Zanuttini, Bruno. "Acquisition de connaissances et raisonnement en logique propositionnelle". Phd thesis, Université de Caen, 2003. http://tel.archives-ouvertes.fr/tel-00995247.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions l'algorithmique de deux problèmes centraux d'Intelligence Artificielle, pour des bases de connaissances représentées, notamment, par des formules propositionnelles de Horn, bijonctives, Horn-renommables ou affines. Nous traitons tout d'abord l'acquisition de connaissances à partir d'exemples : nous donnons notamment un algorithme efficace et général pour l'acquisition exacte, complétons l'état de l'art pour l'approximation et donnons un algorithme pour le PAC-apprentissage des formules affines. Nous étudions ensuite des problèmes de raisonnement : nous donnons un algorithme général pour l'abduction, qui nous permet d'exhiber de nouvelles classes polynomiales, et posons de premières pierres pour l'étude de ce processus lorsque la base de connaissances est approximative. L'étude des formules affines pour la représentation de connaissances n'avait jamais été réellement menée. Les résultats présentés dans ce mémoire montrent qu'elles possèdent de nombreuses bonnes propriétés.
5

Carbonneill, Boris. "Vers un système de représentation de connaissances et de raisonnement fondé sur les graphes conceptuels". Montpellier 2, 1996. http://www.theses.fr/1996MON20015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail presente fait partie d'un projet de developpement d'un systeme de representation de connaissances et de raisonnement fonde sur les graphes conceptuels. Apres un tour d'horizon des systemes utilisant les graphes conceptuels, nous presentons une formalisation du modele utilise, celui des graphes conceptuels simples. A partir d'une base de connaissances et d'une question representees respectivement sous forme d'un ensemble de graphes conceptuels et d'un graphe conceptuel, nous definissons tout d'abord la notion de reponse exacte, et proposons un algorithme de recherche, guide par la question, correct et complet. Par la suite, la notion de reponse exacte et l'algorithme de recherche correspondant sont etendus afin de prendre en compte le mecanisme de definition de types de concepts offert par le modele des graphes conceptuels. Deux autres volets de ce travail concernent le developpement d'heuristiques de raisonnement. Nous presentons dans un premier temps des heuristiques de recherche de reponse exacte ; nous proposons ensuite des heuristiques destinees a palier l'absence de reponse exacte, en produisant des reponses pertinentes. Ces deux mecanismes sont illustres dans le cadre de l'implementation du systeme rock. Notre derniere contribution concerne une extension du modele initial, les graphes conceptuels emboites, pour lesquels nous formalisons la notion de reponse exacte, et proposons les algorithmes de recherche adaptes
6

Inghilterra, Carlo. "Apports de la représentation orientée objet et du raisonnement analogique dans la conception d'un tutoriel de géomérie". Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX30069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Lugardon, Valérie. "Sur les fondements de la notion de dépendance et de son application à la théorie de l'action". Toulouse 3, 1996. http://www.theses.fr/1996TOU30009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La dépendance est une notion générale de plus en plus utilisée en informatique. Cette thèse montre comment tirer partie de cette notion à deux niveaux: au niveau de la logique, en particulier pour redéfinir la sémantique de l'implication, et au niveau de la représentation des connaissances, dans le raisonnement sur les actions. Dans la première partie, différentes logiques sont définies. Il s'agit des logiques Dt, DDt, Eqt et Ret regroupées sous le nom de logiques de la dépendance. Elles diffèrent par les conditions exigées sur le symbole logique de l'implication. Ces conditions sont formulées en référence à une fonction thème, t, associant un contenu référentiel aux formules atomiques. En plus de la sémantique de ces logiques, cette étude comprend des systèmes de séquents de Gentzen les caractérisant, une comparaison avec les logiques d'Epstein, des traductions de la logique classique dans ces différentes logiques et des extensions possibles au calcul des prédicats. La deuxième partie s'intéresse au problème de formaliser les effets des actions. L'approche proposée consiste en une extension du calcul des situations qui prend en compte une notion de dépendance entre actions et atomes du langage. La donnée explicite de la relation de dépendance permet de décrire économiquement l'inertie des systèmes et de tenir compte des effets indirects des actions. En outre des résultats spécifiques qu'elle apporte, cette étude met en évidence l'importance de la notion de dépendance.
8

Gacôgne, Louis. "Contribution à la représentation des connaissances floues et mise en oeuvre d'un système de raisonnement approché". Paris 7, 1990. http://www.theses.fr/1990PA077136.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En suivant la voie ouverte par l. A. Zadeh, on examine les notions de valeurs floues, de prédicats vagues et de déduction approchée, dans le but de donner les bases d'un système modélisant le raisonnement d'un expert humain. Une maquette est construite dans le domaine du choix des roulements à billes
9

Tolba, Hany. "Contribution à l'étude du raisonnement temporel : intégration des informations qualitatives et quantitatives et propagation de contraintes". Nancy 1, 1992. http://www.theses.fr/1992NAN10394.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous avons choisi un nouveau modèle de représentation des informations temporelles fondé sur la logique réifiée (l'algèbre d'intervalles). Nous avons étendu cette algèbre pour qu'elle intègre aussi bien les informations numériques que les informations symboliques. Cette représentation se base sur un domaine discret du temps ainsi que sur la notion de multi-granularité pour représenter les différentes granularités du temps. Les différentes tâches de raisonnement à effectuer par un gestionnaire de graphes temporels (TMM), ainsi que la nature hétérogène des contraintes temporelles nous ont amené à implanter une nouvelle méthode de propagation de contraintes temporelles. Elle consiste à séparer la propagation de ces deux types de contraintes et à échanger leurs résultats via un module de communication. Notre choix s'est porté sur l'algorithme optimal GAC4 que nous avons étendu pour prendre en compte le raisonnement temporel. Cependant, GAC4 souffre d'inconvénients tels que la consommation importante d'espace mémoire pendant le processus d'énumération. Nous avons implanté l'algorithme ANGEL pour vérifier la cohérence d'arcs. C'est un algorithme dynamique capable de faire face à un monde évolutif. Grâce à son aspect fonctionnel, un compromis entre l'espace mémoire, la vitesse d'exécution et la complexité a été trouvé. Un outil de raisonnement, TemPro, a été construit à partir de ces principes. Nous avons aussi défini un langage afin de gérer et d'interroger le graphe temporel. TemPro fonctionne en tant que boîte noire et ce langage sert d'interface entre l'outil et un moteur d'inférences. TemPro peut être utilisé pour des applications telles que l'ordonnancement de tâches, l'allocation de ressources, etc.
10

Guizol, Léa. "Partitioning semantics for entity resolution and link repairs in bibliographic knowledge bases". Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20188/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons une approche qualitative pour la résolution d'entités et la réparation de liens dans une base de connaissances bibliographiques. Notre question de recherche est : "Comment détecter et réparer les liens erronés dans une base de connaissances bibliographiques en utilisant des méthodes qualitatives ?". L'approche proposée se décompose en deux grandes parties. La première contribution est une sémantique de partitionnement utilisant des critères symboliques et servant à détecter les liens erronés. La seconde contribution est un algorithme réparant les liens erronés. Nous avons implémenté notre approche et proposé une évaluation qualitative et quantitative pour la sémantique de partitionnement ainsi que prouvé les propriétés des algorithmes utilisés pour la réparation de liens
We propose a qualitative entity resolution approach to repair links in a bibliographicknowledge base. Our research question is: "How to detect and repair erroneouslinks in a bibliographic knowledge base using qualitative methods?" Theproposed approach is decomposed into two major parts. The first contributionconsists in a partitioning semantics using symbolic criteria used in order to detecterroneous links. The second one consists in a repair algorithm restoring link quality.We implemented our approach and proposed qualitative and quantitative evaluationfor the partitioning semantics as well as proving certain properties for the repairalgorithms
11

Cerf, Marianne. "Essai d'analyse psychologique des connaissances techniques et pratiques des agriculteurs : application au raisonnement de l'implantation des betteraves sucrières". Paris 8, 1994. http://www.theses.fr/1993PA080839.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette these est d'etudier les connaissances des agriculteurs et la facon dont elles sont mobilisees lors de la realisation d'une tache comme la mise en place des betteraves sucrieres, en focntion des contextes de realisation de cette tache. Apres une presentation rapide des motivations de cette recherche, et des caracteristiques cognitives de l'activite agricole, une synthese bibliographique situe l'activite de conduite d'especes vegetales dans le cadre des activites de controle de processus continus et de diagnostic en vue d'agir sur ces processus. Sont ensuite presentes les exploitations agricoles et les agriculteurs retenus pour l'etude, ainsi que les methodes utilisees. Ces dernieres sont concues de facon a identifier les similitudes et les differences entre les agriculteurs, du point de vue de leurs connaissances et de leurs raisonnements dans le cadre de la tache etudiee. Ces methodes doivent en outre permettre de tester la plausibilite d'une organisation des connaissances sous la forme de reseaux semantiques de l'action. Sont associees, des methodes experimentales s'appuyant sur l'utilisation de materiel photo, et des methodes d'observation du travail lors de la realisation de cette tache. L'analyse debouche sur l'identification de noyaux de connaissances communs aux differents agriculteurs enquetes, ces noyaux portant sur la representation du fonctionnement du champ cultive pour la tache etudiee. Cette analyse permet egalement de proposer un modele de mobilisation des procedures connues par les agriculteurs, que ces derniers soient en situation experimentale ou en situation reelle. Enfin, elle fournit des pistes pour adapter un modele de representation des connaissances de type "reseaux semantiques de l'action" afin de l'appliquer a des situations dynamiques
The aim of this thesis is to study farmers' knowledge and the way such a knowledge is used while performing sugar beet setting up in various working contexts. After a short introduction which sumarizes the motives of this research, and a brief characterization of faarmers' cognitive activities, a bibliographic synthesis assigns a place to crop management within continuous process control activities and more specifically within diagnosis activities. Then, the farms and farmers that been selected for the study as well as the methods that have been used are described. These ones have been designed to identify similarities and differences between the knowledge and reasoning of individuals in relation to the studied task. Besides, those methods have been designed to test the plausibility of representing farmers' knowledge as semantics of action networks. Experimental studies have been combined with direct observations of working farmers. The experimental material was mostly soil pictures taken at different moments of the task performing. This analysis results in the identification of cores of common knowledge shared by all the farmers of the sample. That common knowledge concerns the representation of the functioning of the cropfield. This analysis also results in proposals for describing the way farmers choose between known procedures in experimental conditions as well as in working ones. Finally, our analysis results in directions to adapt the semantics of action networks formalism in order to apply such a knowledge representation to the control of dynamic process
12

Carvalho, Felipe. "La pensée démonstrative : une approche pragmatique". Paris, EHESS, 2013. http://www.theses.fr/2013EHES0048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse examine la possibilité d'expliquer notre capacité à penser de façon démonstrative aux objets particuliers dans le monde, dans le cadre d'une approche pragmatiste de la représentation mentale singulière. Cette approche sera développée dans le contexte d'un débat entre les théories conceptualistes et perceptualistes de la pensée démonstrative. Selon les premières, cette capacité ne saurait être expliquée en I'absence de connaissances conceptuelles sophistiquées d'arrière plan portant sur la nature des objets et leur comportement dans I'espace et le temps. Selon les secondes, on peut expliquer une telle capacité au niveau plus primitif de la perception, en faisant appel à des processus percepifs de bas-niveau qui sont naturellement adaptés aux tâches consistant à individuer et à suivre à la trace les objets matériels de taille moyenne. Cetle thèse argumentera en faveur d'une position intermédiaire plus attractive, fondée sur une approche pragmatiste de la pensée démonstrative selon laquelle notre capacité à penser aux objets particuliers s'explique par notre connaissance pratique des objets et de leurs comportements, laquelle est issue de nos modes récurrents d'interaction avec les objets dans le monde
This thesis investigates the possibility of explaining our capacity to have demonstrative thoughts about particulars in our external environment within a broadly pragmatist approach to singular mental representation. This approach will be introduced in the context of a debate between conceptualists and perceptualists about demonstrative thought. According to the first, this capacity cannot be explained in the absence of sophistioated background conceptual knowledge of what objects are and how they behave in space and time. According to the latter we can explain it at the more primitive level of perception, on the basis of low-level perceptual processes that are naturally tuned to the task of individuating and fracking medium-sized material objects. This thesis will argue that a more desirable middle ground can be attained by adopting a pragmatist approach to demonstrative thought, where the capacity to think about particulars in the world is explained through a practical knowledge of what objects are and how they behave, acquired through repeated pattems of active interactions with objects in the world
13

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes". Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
14

Forget, Lionel. "X-logiques : théorèmes de représentation pour les logiques préférentielles et la logique des défauts". Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se situe dans le cadre de l'intelligence artificielle et plus particulièrement du raisonnement incertain et révisable. Il existe deux grandes classes de formalismes permettant de modéliser la connaissance. Ceux qui possèdent la propriété de monotonie et dans lesquels une formule déduite le sera toujours lors de l'ajout d'information, et ceux qui sont non-monotones et qui permettent un raisonnement révisable sur des informations incomplètes. Nous nous intéressons à un nouveau formalisme non-monotone, les X-logiques, définies à l'aide d'une logique classique et d'un ensemble de formules de cette logique. Nous montrons qu'il est possible de capturer différents formalismes non monotones, à l'aide des x-logiques, c'est-à-dire que pour un formalisme non monotone donné, il est possible de définir une X-logique qui infère les mêmes formules que celles inférées par le formalisme non monotone considéré. Une fois montré le caractère fédérateur des X-logiques, il devient alors possible d'étudier les formalismes non monotones en commençant par les traduire en une X-logique. L'intérêt de cette approche est qu'il devient alors envisageable d'étudier les logiques non monotones en utilisant les outils de démonstration automatique des logiques classiques. Cette approche est donc résolument orientée procédure de preuve. Nous montrons deux théorèmes de représentation sur les X-logiques dans le cas fini. Le premier, que nous appliquons au cas particulier de la circonscription, concerne les logiques préférentielles (définies sur une relation d'ordre entre les modèles). Le second porte sur la logique des défauts.
15

Barloy, Yann. "Conception et développement d'outils dédiés aux systèmes réflexifs : application à la reconnaissance de manoeuvres automobiles". Troyes, 2008. http://www.theses.fr/2008TROY0023.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de ma thèse intitulée : « Conception et développement d’outils dédiés aux systèmes réflexifs. Application à la reconnaissance de manœuvres automobiles. » j’ai développé un moteur d’inférences, nommé Reflexive System Inference Engine (RSIE), basé sur une méthode hybride entre les réseaux RETE et la méthode des filtres afin d’allier performance et souplesse d’application. De par sa structure, RSIE permet de créer des systèmes interagissant non seulement avec leur environnement mais également avec leurs propres connaissances permettant à ces derniers de s’auto-modifier en fonction des problèmes à résoudre, on parle alors de systèmes réflexifs. J’ai appliqué ce moteur au projet CASSICE (Caractérisation Symbolique des SItuations de ConduitE) et plus particulièrement au système à base de règles IDRES. Les règles de IDRES ont été transposées dans le formalisme de RSIE et l’ajout d’une métarègle de gestion des connaissances à mettre en œuvre à un instant t ont permis d’améliorer les performances d’IDRES en terme de rapidité d’exécution ainsi qu’en terme d’occupation de ressources informatiques. De par sa nature, RSIE peut s’appliquer à d’autres domaines et cela s’inscrit dans mes perspectives
During my thesis entitled "Design and development of tools dedicated to reflexive systems. Application to car maneuvers recognition. "I developed an inference engine, called Reflexive System Inference Engine (RSIE), based on a hybrid between RETE networks filter method to combine performance and flexibility of application. RSIE structure allows it to create systems which not only interact with their environment but also with their own knowledge allowing them to self-edit according to solve problems, known as reflexive systems. I applied this engine to CASSICE project (Caractérisation Symbolique des SItuations de ConduitE) and more particularly to the rule-based system IDRES. IDRES rules have been translated into RSIE formalism and the adding a of knowledge management metarules to implement a time t have improved IDRES performances in terms of speed of execution and in terms of resources occupation. By its nature, RSIE can be applied to other areas and this is part of my perspectives
16

Simonet, Geneviève. "Héritage non monotone à base de chemins et de graphes partiels". Montpellier 2, 1994. http://www.theses.fr/1994MON20151.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes". Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2337/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires
Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data
18

Sabouret, Nicolas. "Etude de modèles de représentation, de requêtes et de raisonnement sur le fonctionnement des composants actifs pour l'interaction homme-machine". Paris 11, 2002. http://www.theses.fr/2002PA112290.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous abordons dans cette thèse le problème de la construction de réponses à des requêtes formelles modélisant des questions de bon sens posées par les utilisateurs ordinaires concernant le fonctionnement d'un composant actif. Les recherches actuelles dans la communauté du raisonnement sur les actions proposent de travailler sur une modélisation du système en logique pour répondre à des requêtes bien formées et ne prennent pas en compte l'existence de "notions de bon sens" utilisées par les utilisateurs ordinaires dans la formulation des questions. De plus, nous voulons pouvoir travailler directement sur le code du composant. Nous présentons tout d'abord un langage de programmation pour les composants actifs qui permet d'avoir accès en cours d'exécution à une description des actions et des données du composant. Nous présentons ensuite un langage de requêtes qui permet de modéliser une large classe de questions sur le fonctionnement issues de l'interaction en langue naturelle. Nous proposons des algorithmes de réponse qui permettent de traiter ces requêtes ainsi qu'un cadre formel pour prendre en compte des notions de bon sens dans les requêtes. Nous étudions ensuite le problème de la construction de réponses portant sur l'exécution passée du composant. Nous montrons qu'il est nécessaire d'utiliser une approche dynamique pour extraire des régularités dans les actions du composant et mettre en évidence des comportements, individuels dans le cas d'une interaction avec l'utilisateur ou collectifs dans le cas d'une interaction dans un système multi-agents. Nous montrons que nos travaux peuvent s'intégrer dans le cadre du web sémantique pour définir des composants actifs sous la forme de pages web dynamiques munies de capacité de raisonnement et d'interaction avec les utilisateurs ordinaires. Nous présentons enfin l'implémentation de notre modèle réalisée dans le projet InterViews et nous donnons des exemples de programmation et d'exécution de ces composants actifs
In this PhD thesis, we deal with a problem that is emerging in human-computer interaction. Our aim is to answer formal requests modelling common-sense questions that a human user can ask about an active software component's functioning. Current research in reasoning about actions propose to work with a logic model of the system and to answer only to well formed requests which cannot take into account common-sense notions that are used by human users in their questions about actions. Moreover, we want to be able to work directly with the component's code to answer such questions. We first present a programming language and a runtime model for active components that allows us to have access, at any time of the execution, to the description of the component's actions and physical status. We then present a request model that can be used to represent a wide class of questions about actions. We propose answering algorithms for use on these formal requests. We show that it is possible to take into account common-sense notions in these requests and we propose a formal frame for processing such "common-sense requests" about actions. Then, we study the issue of answering requests about the component's past execution. We show that using a dynamic approach is both possible and required, so as to extract regularities from the component's runtime. We show how this exhibits component behaviors that are required for the production of an explanation. We present an extension of this approach for extracting collective behaviors in multi-agent systems. We show that our work can be used within the semantic web in order to define active components as dynamic page web, provided with reasoning capabilities and capable of interacting with ordinary users in need for help. Finally, we present the implementation of our model within the InterViews project. We give both programming and execution examples of active components in this implementation
19

Abchiche, Nadia. "Elaboration, implémentation et validation d'une approche distribuée pour l'intégration de modèles de raisonnement hétérogènes : application au diagnostic de pannes électriques". Paris 8, 1999. http://www.theses.fr/1999PA081527.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these presente l'elaboration d'une approche distribuee pour l'integration de systemes manipulant chacun, un modele de raisonnement particulier. Chaque modele de raisonnement est constitue d'un type de connaissances specifique et d'un ensemble de moyens appropries pour l'exploitation de ces connaissances, ce qui lui conferent un ensemble de caracteristiques lors de la resolution d'un probleme. Notre modele de cooperation mocah (modelisation de la cooperation entre agents heterogenes) est concu pour permettre l'integration de plusieurs modeles de raisonnement dans un meme systeme, en vue de combiner les avantages de plusieurs modeles de raisonnement tout en minimisant leurs inconvenients. Mocah est base sur l'identification de connaissances de cooperation (reseaux contractuels, negociation) que nous avons modelise avec la methodologie commet. Cette methodologie est appliquee aussi bien aux connaissances de cooperation qu'aux connaissances du domaine. Elle consiste a decomposer ces deux types de connaissances selon trois dimensions : les taches, les methodes et le modele du domaine. A partir de mocah, nous avons concu une architecture d'agent cooperatif implementee dans un environnement de programmation multi-agents. Chaque agent represente un modele de raisonnement particulier, dote d'une architecture capable de manipuler avec un meme algorithme l'ensemble des connaissances d'un agent. A cause des limites individuelles des modeles de raisonnement, aucun agent n'est capable de maitriser un probleme dans sa totalite. Cette maitrise concerne aussi bien le nombre de problemes resolus que la qualite meme d'une solution. Les agents communiquent entre eux grace a une representation consensuelle. Ils cooperent et creent ainsi, une synergie entre les modeles de raisonnement, ce qui permet alors d'augmenter le nombre de problemes resolus et d'ameliorer les solutions obtenues. Notre approche a ete experimentee pour le diagnostic de pannes de circuits electriques
This work describes the elaboration of a distributed approach to integrate several heterogeneous reasoning models using multi-agents paradigms. Each reasoning model represents particular knowledge with appropriate methods. Since none of the reasonig models is able to solve a whole problem with acceptable performances, we have proposed a cooperation model, mocah (modellig cooperation between heterogeneous agents). The starting point is to model the cooperation reasoning at the knowledge level with a methodology usefull for domain expertise commet. In fact, we extracted cooperation expertise from works done in distributed artificial intelligence (contract net protocoles to allocate tasks, solving conflicts using negociation mechanisms). The most important point to develop is an agent's architecture to support the two levels of reasoning: cooperation reasoning and domain reasoning. These two levels are modeled using the above mentioned methodology which consist in decomposing knowledge according to three dimensions: the tasks, the methods and the domain model. Our architecture is sufficiently flexible to allow increasing the variety and the number of agents, deal with existing cooperation expertise and easily integrate new ones, and finally, be domain independent. A consensus representation is developed to make the agents communicating despite heterogeneous local representations. The agents reason not only on their own domain problems, but also on their capabilities and other agents' capabilities so they can cooperate to improve the problem solving process and increase the variety of the problems solved by the whole system. Our approach has been applied to diagnosis of faults in electrical functions of cars
20

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances". Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20101.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de thèse porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui permet une représentation graphique des connaissances. La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (économie ou tourisme) puis ajoutées à la base. Elles sont ensuite fournies au service de validation et d'enrichissement qui les complète de nouvelles connaissances et décide de leur validité
21

Bourget, Annick. "De la formation préclinique à la formation clinique : explicitation du développement du raisonnement clinique chez des étudiantes et des étudiants en médecine ayant suivi un programme basé sur l'apprentissage par problèmes". Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6383.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de l'étude est d'explorer le développement du raisonnement clinique selon une perspective multidimensionnelle et longitudinale en considérant le modèle multidimensionnel du raisonnement clinique et le concept de compétence. Les questions de recherche sont : (1) quelles dimensions du raisonnement clinique se manifestent chez l'étudiant? (2) quelles étapes de développement est-il possible de repérer? Il s'agit d'une étude de cas multiples explorant le développement de cinq dimensions : "Représentation", "Processus", "Métacognition", "Connaissances" et "Structures". Quatre étudiants furent rencontrés à quatre moments entre la fin de leur formation préclinique et le début de leur formation clinique (12 mois). Chaque étudiant réalisait (1) une entrevue médicale avec un patient standardisé; (2) un entretien d'explicitation à partir d'une vidéo; (3) une carte cognitive et (4) une entrevue semi-dirigée. Des analyses intracas puis intercas furent réalisées suivant les étapes de condensation, de présentation et d'élaboration. L'analyse permet de conclure que les cinq dimensions sont présentes chez les étudiants dès la fin de leur formation préclinique et qu'il existe une interdépendance entre ces dimensions. De plus, cinq transformations témoignent du développement du raisonnement clinique chez l'étudiant : (1) automatisation et adaptation des connaissances procédurales de la collecte d'informations; (2) déplacement de la cible de la régulation; (3) passage d'une recherche de cohérence entre les signes et les symptômes à l'évaluation des hypothèses; (4) passage du recours aux connaissances biomédicales à l'utilisation marquée des connaissances cliniques et (5) émergence de scripts. Ces transformations témoignent de deux grandes étapes de développement : (1) intégration de la démarche de la collecte d'informations et (2) passage d'une démarche de compréhension à une démarche de catégorisation. S'inscrivant dans l'interrelation recherche-formation-pratique, les conclusions et la méthodologie de l'étude invitent à poursuivre l'exploration du développement du raisonnement clinique chez l'étudiant en médecine ainsi que dans d'autres domaines de la santé.
22

Bertaud-Gounot, Valérie. "Proposition d'un modèle constructiviste de base de connaissance fondé sur une ontologie des signes permettant les raisonnements abductif et déductif : la représentation du signe en médecine". Rennes 1, 2007. http://www.theses.fr/2007REN1B105.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En radiologie, des activités cliniques telles que l’aide à la génération de comptes-rendus ou l’aide à la décision nécéssitent un modèle conceptuel partagé de la connaissance médicale. Différentes études ont montré l’insuffisance de l’ensemble des ressources existantes ; l’objectif est de modéliser la sémiologie en radiologie ostéoarticulaire, à partir de ressources existantes : RadLex, GAMUTS, DICOM6SR, l’UMLS, la CISP 2 et FMA. Premièrement , nous avons défini un modèle de haut niveau permettant de représenter la sémiologie. Deuxièmement, nous avons complété les classes et les relations à partir des ressources de manière semi-automatique (étape supervisée par des radiologues expérimentés). Le modèle formel (ontologie), développé sous Protégé, comprend 15 846 concepts de radiologie ostéoarticulaire. Les concepts qui ne sont pas purement anatomiques sont retrouvés dans l’UMLS à 91,76 %. L’ontologie comporte 28 257 synonymes. Elle a fait l’objet d’une validation formelle avec Pellet et d’une validation sémantique avec Ontoclean.
23

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00387017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
24

Chaoued, Nouha. "Représentation et traitement des connaissances en logique multivalente : cas d'une répartition non uniforme des degrés de vérité". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS048/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans la plupart des activités quotidiennes, l’Homme a tendance à utiliser des connaissances imparfaites. L’imperfection se rapporte à trois volets : l’imprécision, l’incertitude et l’incomplétude. Nous thèse concerne les connaissances imprécises. En particulier, nous nous intéressons au traitement qualitatif de l’information imprécise dans les systèmes à base de connaissances. Diverses approches ont été proposées pour traiter les connaissances imprécises, en particulier, la logique floue et la logique multivalente. Les théories des ensembles flous et des multi-ensembles sont un moyen très approprié pour la représentation et la modélisation de l’imprécision.Notre travail s’inscrit dans le contexte de la logique multivalente. Celle-ci permet de représenter symboliquement des connaissances imprécises en utilisant des expressions adverbiales ordonnées du langage naturel. L’utilisation de ces degrés symboliques est plus compréhensible par les experts. Ce type de représentation de données est indépendant du type de leurs domaines de discours. Ainsi, la manipulation des connaissances abstraites ou faisant référence à des échelles numériques se fait de la même manière.Dans la littérature, le traitement de l’information imprécise repose sur une hypothèse implicite de la répartition uniforme des degrés de vérité sur une échelle de 0 à 1. Néanmoins, dans certains cas, un sous-domaine de cette échelle peut être plus informatif et peut inclure plus de termes. Dans ce cas, l’information est définie par des termes déséquilibrés, c’est-à-dire qui ne sont pas uniformément répartis et/ou symétriques par rapport à un terme milieu. Par exemple, pour l’évaluation des apprenants, il est possible de considérer un seul terme négatif F correspondant à l’échec. Quant à la réussite, elle est décrite par plusieurs valeurs de mention, i.e. D, C, B et A. Ainsi, si le terme D est le seuil de la réussite, il est considéré comme le terme milieu avec un seul terme à sa gauche et trois à sa droite. Il s’agit alors d’un ensemble non uniforme.Dans ce travail, nous nous concentrons sur l'extension de la logique multivalente au cas des ensembles non uniformes. En s'appuyant sur notre étude de l'art, nous proposons de nouvelles approches pour représenter et traiter ces ensembles de termes. Tout d'abord, nous introduisons des algorithmes qui permettent de représenter des termes non uniformes à l'aide de termes uniformes et inversement. Ensuite, nous décrivons une méthode pour utiliser des modificateurs linguistiques initialement définis pour les termes uniformes avec des ensembles de termes non uniformes. Par la suite, nous présentons une approche de raisonnement basée sur le modèle du Modus Ponens Généralisé à l'aide des Modificateurs Symboliques Généralisés. Les modèles proposés sont mis en œuvre dans un nouveau système de décision fondé sur des règles pour la reconnaissance de l'odeur de camphre. Nous développons également un outil pour le diagnostic de l'autisme infantile. Les degrés de sévérité de l'atteinte par ce trouble autistique sont représentés par l'échelle d'évaluation de l'autisme infantile (CARS). Il s'agit d'une échelle non uniforme
In most daily activities, humans use imprecise information derived from appreciation instead of exact measurements to make decisions. Various approaches were proposed to deal with imperfect knowledge, in particular, fuzzy logic and multi-valued logic. In this work, we treat the particular case of imprecise knowledge.Taking into account imprecise knowledge by computer systems is based on their representation by means of linguistic variables. Their values form a set of words expressing the different nuances of the treated information. For example, to judge the beauty of the Mona Lisa or the smell of a flower, it is not possible to give an exact value but an appreciation is given by a term like "beautiful" or "floral".In the literature, dealing with imprecise information relies on an implicit assumption: the distribution of terms is uniform on a scale ranging from 0 to 1. Nevertheless, in some cases, a sub-domain of this scale may be more informative and may include more terms. In this case, knowledge are represented by means of an unbalanced terms set, that is, not uniformly nor symmetrically distributed.We have noticed, in the literature, that in the context of fuzzy logic many researchers have dealt with these term sets. However, it is not the case for multi-valued logic. Thereby, in our work, we aim to establish a methodology to represent and manage this kind of data in the context of multi-valued logic. Two aspects are treated. The first one concerns the representation of terms within an unbalanced multi-set. The second deals with the treatment of such kind of imprecise knowledge, i.e. with symbolic modifiers and in reasoning process.In this work, we focus on unbalanced sets in the context of multi-valued logic. Basing on our study of art, we propose new approaches to represent and treat such term sets. First of all, we introduce algorithms that allow representing unbalanced terms within uniform ones and the inverse way. Then, we describe a method to use linguistic modifiers within unbalanced multi-sets. Afterward, we present a reasoning approach based on the Generalized Modus Ponens model using Generalized Symbolic Modifiers. The proposed models are implemented in a novel rule-based decision system for the camphor odor recognition within unbalanced multi-set. We also develop a tool for child autism diagnosis by means of unbalanced severity degrees of the Childhood Autism Rating Scale (CARS)
25

Cohen-Solal, Quentin. "Un cadre algébrique pour le raisonnement qualitatif en présence d'informations hétérogènes : application aux raisonnements multi-échelle et spatio-temporel". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC245/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi les différentes formes de raisonnement étudiées dans le contexte de l'intelligence artificielle, le raisonnement qualitatif permet d'inférer de nouvelles connaissances dans le contexte d'informations imprécises, incomplètes et dépourvues de valeurs numériques. Il permet par exemple de déduire de nouvelles informations à partir d'un ensemble d'informations spatiales telles que « la France est frontalière de l'Allemagne », « la Suisse est à l'est de la France », « l'Italie est en Europe » et « le Luxembourg est proche de la France ». Il peut également être utilisé pour résoudre des abstractions de problèmes quantitatifs difficiles à résoudre, afin par exemple d'accélérer la résolution de ces problèmes.De nombreux formalismes de raisonnement qualitatif ont été proposés dans la littérature. Ils ne se focalisent cependant que sur un seul aspect du monde, alors que la majorité des applications requièrent la prise en compte d'informations hétérogènes. Afin de répondre à ces besoins, plusieurs combinaisons et extensions de formalismes qualitatifs, comme le raisonnement spatio-temporel et le raisonnement multi-échelle, ont récemment été proposées dans la littérature. Le raisonnement spatio-temporel permet de raisonner dans le contexte d'informations spatiales et temporelles interdépendantes. Le raisonnement multi-échelle permet de raisonner avec des informations de précisions différentes, et en particulier de lever des incohérences apparentes.Dans cette thèse, nous nous intéressons au raisonnement multi-échelle, au raisonnement spatio-temporel et aux combinaisons de formalismes qualitatifs.Nous proposons d'étendre le raisonnement qualitatif temporel multi-échelle pour prendre en compte le fait que les intervalles de temps peuvent être perçus comme des instants à certaines échelles de précision, de formaliser intégralement ce raisonnement et d'étudier la décision de la cohérence dans ce contexte ainsi que sa complexité. Nous montrons en particulier que ce formalisme permet de décider la cohérence et que le problème de décision de la cohérence est NP-complet, même dans le cas le plus simple.En outre, nous proposons un cadre général permettant de raisonner sur les séquences temporelles d'informations qualitatives, une forme de description spatio-temporelle. Ce cadre permet notamment de raisonner dans le contexte d'évolutions complexes. Par exemple, les entités considérées peuvent avoir des caractéristiques préservées au cours du temps, évoluer de manière dépendante les unes par rapport aux autres, tout en ayant un comportement potentiellement irréversible et différent selon leur nature. De plus, dans ce cadre, le raisonnement est plus performant computationnellement que les approches de l'état de l'art. Nous étudions en particulier la décision de la cohérence dans le contexte spécifique de régions mobiles de taille constante, et montrons que ce cadre permet effectivement de décider la cohérence.De surcroît, nous proposons un cadre formel unifiant plusieurs formes d'extensions et de combinaisons de formalismes qualitatifs, incluant le raisonnement multi-échelle et les séquences temporelles. Ce cadre permet de raisonner dans le contexte de chacune de ces combinaisons et extensions, mais également d'étudier de manière unifiée la décision de la cohérence et sa complexité. Nous établissons en particulier deux théorèmes complémentaires garantissant que la décision de la cohérence est polynomiale, et nous les utilisons pour prouver que plusieurs fragments de séquences temporelles sont traitables.Nous généralisons également la définition principale de formalisme qualitatif afin d'inclure des formalismes qualitatifs exclus des définitions de la littérature, importants dans le cadre des combinaisons
In this thesis, we are interested in qualitative multi-scale reasoning, qualitative spatio-temporal reasoning and combinations of qualitative formalisms.We propose to extend the multiscale temporal reasoning to take into account the fact that time intervals can be perceived as instants at certain scales of precision, to fully formalize this reasoning and to study its consistency problem. We show in particular that this formalism decides consistency and that the consistency problem is NP-complete, even in the simplest case.In addition, we propose a general framework for reasoning on temporal sequences of qualitative information, a form of spatio-temporal description. This framework allows for reasoning in the context of complex evolutions. For example, the considered entities may have characteristics preserved over time, evolve in a dependent manner with respect to each other, while having a potentially irreversible and different behavior depending on their nature. Moreover, in this context, reasoning is computationally more efficient than state-of-the-art approaches. In particular, we study the consistency problem in the specific context of constant-size moving regions, and show that this framework actually decides consistency.Furthermore, we propose a formal framework unifying several forms of extensions and combinations of qualitative formalisms, including multi-scale reasoning and temporal sequences. This framework allows one to reason in the context of each of these combinations and extensions, but also to study in a unified way the consistency problem. In particular, we establish two complementary theorems guaranteeing that the consistency problem is polynomial, and we use them to prove that several fragments of temporal sequences are tractable
26

Le, Ber Françoise. "Modélisation des connaissances et raisonnements pour l'analyse de paysages agraires à partir de données satellitaires". Nancy 1, 1993. http://www.theses.fr/1993NAN10342.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'INRA et le CRIN/INRIA. Elle porte sur la représentation des connaissances et raisonnements au moyen de systèmes multi-agents à base de tableau noir, et s'intéresse en particulier à l'usage des modèles dans l'expertise et dans sa représentation. Le domaine d'expertise est celui de l'agronomie confrontée à l'imagerie satellitaire: des images sont extraites des cartes régionales d'occupation du sol qui suivent ensuite un diagnostic des systèmes agraires. La première partie du rapport présente des généralités sur l'expertise, les systèmes d'analyse d'images, les systèmes multi-agents à base de tableau noir et les méthodes d'acquisition et de représentation de l'expertise. La deuxième partie du rapport s'intéresse à l'expertise concernant la cartographie des occupations du sol. Cette expertise est présentée puis formalisée en un modèle de raisonnement implanté dans le système aérosol, développé à partir d’atome. La connaissance est représentée à la fois dans les spécialistes et les tableaux noirs. Une évaluation du système est présentée. La troisième partie porte sur l'expertise concernant l'analyse des fonctionnements des systèmes agraires. Cette expertise contient différents niveaux de connaissances dont des modèles de paysages. Ceci amène à étudier le rôle des modèles dans l'expertise et dans sa représentation. Des modèles sont proposés pour formaliser la connaissance du domaine. Un modèle de fonctionnement des systèmes agraires est implanté dans le tableau noir de aréopage, système d'aide à l'analyse des cartes issues des images
27

Kauffmann, Hervé. "Multilog : utilisation de mondes en programmation logique pour représenter et manipuler des connaissances". Paris 6, 1986. http://www.theses.fr/1986PA066079.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Multilog est un langage de programmation logique. Ses principales caractéristiques sont les suivantes : les connaissances sont réparties dans différents mondes; chaque monde a son propre mécanisme d'inférence, qui indique quelles inférences peuvent être faites à partir des clauses de la base de connaissances, et comment les faire; trois relations d'héritage permettent de relier les différents mondes: une relation d'héritage total, une relation d'héritage par défaut et une relation d'héritage avec exceptions. Les principales applications de multilog sont : le raisonnement hypothétique, la représentation de différents points de vue, le raisonnement non monotone, le raisonnement distribué.
28

Pierre, Denis. "Formulation et maintenance d'une théorie hypothétique par un agent apprenant". Montpellier 2, 1997. http://www.theses.fr/1997MON20082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous interessons a l'apprentissage a partir d'exemples et a la resolution de probleme dans un univers evolutif represente par une base de connaissances incomplete. Nous formalisons un cadre de representation de connaissances susceptible d'etre elabore et critique par des humains comme par des machines. Cette representation des connaissances est appelee theorie semi-empirique car cette forme de theorie n'est pas completement axiomatique. Nous donnons les elements d'une formalisation d'un systeme appele schema mental, modelisant l'augmentation de la connaissance durant le processus d'apprentissage, a partir des definitions generales d'un langage et d'un modele de gestion de croyances. Enfin, nous gerons l'aspect dynamique du processus d'acquisition de connaissances a travers des mecanismes de raisonnement, la production de preuves, et l'emergence d'un noyau stable de connaissances. Ce formalisme est applique a l'etude de l'evolution de zones geographiques d'apres plusieurs releves temporels.
29

Girard, Pierre. "Construction hypothétique d'objets complexes". Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00345880.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les modèles à objets distinguant la notion de classe (ensemble d'individus) de celle d'instance (individu particulier), la classe peut jouer deux rôles fondamentalement différents. Les modèles qui mettent en œuvre des mécanismes de classification d'instances, présentent la classe comme une unité d'identification caractérisant les propriétés que doivent posséder toutes ses instances. Ces propriétés sont alors utilisées pour établir l'appartenance d'une instance à une classe. D'autres modèles utilisent la classe comme unité de construction, ou de gestion, d'instances. Ils laissent alors toutes libertés dans la description de la classe pour introduire des informations procédurales qui sont utilisées pour modifier ou compléter une instance qui lui a été explicitement rattachée. Notre travail consiste à mettre en place un mécanisme capable de trouver les différentes solutions que peut proposer une hiérarchie de classes à un problème de construction d'instance. Schématiquement, un tel problème se caractérise par la donnée d'une instance pour laquelle subsistent des possibilités de raffinement dans la hiérarchie de classes et dont la valeur de certains attributs reste inconnue. La solution proposée prend place dans un modèle à objets, appelé TROPES, défini pour accueillir un raisonnement classificatoire. La mise en place du mécanisme de construction d'instance par exploration d'une hiérarchie est assurée par un système, dit d'assistance hypothétique, couplé au système TROPES. Ce système d'assistance est chargé de produire et de gérer les hypothèses permettant de prolonger l'exploration d'une hiérarchie de classes au delà des limites atteintes par la classification d'instances. Les différentes combinaisons d'hypothèses pouvant ainsi être formées sont validées par TROPES sur des versions différentes de l'instance. Lorsque le mécanisme est appliqué à un objet composite, le partage de valeurs d'attributs entre composants et composite permet la propagation du processus de construction du composite vers les composants
30

Girard, Pierre. "Construction hypothétique d'objets complexes". Phd thesis, Grenoble 1, 1995. https://theses.hal.science/tel-00345880.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les modèles à objets distinguant la notion de classe (ensemble d'individus) de celle d'instance (individu particulier), la classe peut jouer deux rôles fondamentalement différents. Les modèles qui mettent en œuvre des mécanismes de classification d'instances, présentent la classe comme une unité d'identification caractérisant les propriétés que doivent posséder toutes ses instances. Ces propriétés sont alors utilisées pour établir l'appartenance d'une instance à une classe. D'autres modèles utilisent la classe comme unité de construction, ou de gestion, d'instances. Ils laissent alors toutes libertés dans la description de la classe pour introduire des informations procédurales qui sont utilisées pour modifier ou compléter une instance qui lui a été explicitement rattachée. Notre travail consiste à mettre en place un mécanisme capable de trouver les différentes solutions que peut proposer une hiérarchie de classes à un problème de construction d'instance. Schématiquement, un tel problème se caractérise par la donnée d'une instance pour laquelle subsistent des possibilités de raffinement dans la hiérarchie de classes et dont la valeur de certains attributs reste inconnue. La solution proposée prend place dans un modèle à objets, appelé TROPES, défini pour accueillir un raisonnement classificatoire. La mise en place du mécanisme de construction d'instance par exploration d'une hiérarchie est assurée par un système, dit d'assistance hypothétique, couplé au système TROPES. Ce système d'assistance est chargé de produire et de gérer les hypothèses permettant de prolonger l'exploration d'une hiérarchie de classes au delà des limites atteintes par la classification d'instances. Les différentes combinaisons d'hypothèses pouvant ainsi être formées sont validées par TROPES sur des versions différentes de l'instance. Lorsque le mécanisme est appliqué à un objet composite, le partage de valeurs d'attributs entre composants et composite permet la propagation du processus de construction du composite vers les composants
31

Mangelinck, Ludmila. "Représentation et classification de structures spatiales -- Application à la reconnaissance de paysages agricoles". Phd thesis, Université Henri Poincaré - Nancy I, 1998. http://tel.archives-ouvertes.fr/tel-00391141.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette th{è}se, nous nous int{é}ressons {à} la repr{é}sentation et {à} la classification de structures spatiales dans le cadre de la reconnaissance de mod{è}les de paysages agricoles sur des images satellites. Nous avons d{é}fini, lors d'une phase d'acquisition des connaissances, des mod{è}les de paysages sous forme de classes dans un syst{è}me de repr{é}sentation des connaissances par objets. Les classes sont reli{é}es entre elles par des relations spatiales qualitatives. Les relations spatiales sont des classes dont les instances lient d'autres classes. Les classes de relations sont organis{é}es dans une hi{é}rarchie ayant une structure de treillis permettant de repr{é}senter la sp{é}cialisation, l'implication, la disjonction et la conjonction de relations. Nous avons choisi un treillis de Galois qui permet de mettre en {é}vidence le lien entre relations et conditions n{é}cessaires {à} la v{é}rification des relations sur l'image. Gr{â}ce {à} cette structure, nous avons propos{é} un algorithme de recherche de l'ensemble minimum des conditions qui permet de r{é}duire le nombre d'op{é}rations sur les images. Des algorithmes ont {é}t{é} aussi propos{é}s pour repr{é}senter les propri{é}t{é}s math{é}matiques des relations. Nous proposons d'ajouter au langage quatre facettes permettant de repr{é}senter la quantification des relations spatiales. Nous avons modifi{é} l'op{é}ration qui associe un mod{è}le {à} une entit{é} pour prendre en compte la quantification des relations dans la classification des structures spatiales. Le syst{è}me de reconnaissance a {é}t{é} implant{é} dans le langage \yafool et mis en \oe{}uvre sur des cartes de la r{é}gion Lorraine.
32

Schmeltzer, Olivier. "Modélisation de cartes génomiques : une formalisation et un algorithme de construction fondé sur le raisonnement temporel". Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005062.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modélisation de cartes génomiques, qui sont un outil indispensable aux biologistes moléculaires, pose de nombreux problémes de représentation et de traitement. Les premiers proviennent de l'existence de plusieurs descriptions des entités du génome, les seconds de la complexité algorithmique de la construction des cartes, ajoutée à la nécessité de pouvoir traiter les incohérences issues des expériences. Ce travail s'attache dans un premier temps à préciser la notion de carte grâce à une formalisation qui spécifie comment sont construites les cartes génomiques et quelles sont les relations entre les entités qui y apparaissent. Celle-ci est ensuite implémentée dans un système de représentation de connaissances par objets. Dans un second temps, un algorithme de construction de cartes à partir de la description des relations entre les entités qui les constituent est proposé. Cet algorithme s'appuie sur des techniques de raisonnement temporel et intègre des informations aussi bien qualitatives que quantitatives. Son implémentation a été réalisée à partir d'un logiciel de raisonnement temporel et valide la généricité de la démarche qui peut profiter de tous les progrès dans ce domaine de façon quasi-immédiate. Les spécifications d'un générateur d'interfaces cartographiques sont également présentées ; à la différence des systèmes existants, ce générateur n'est pas restreint à une seule interface cartographique ad hoc mais constitue une boite à outils permettant de construire soi-même son interface cartographique personnalisée.
33

Chen, Jieying. "Knowledge Extraction from Description Logic Terminologies". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS531.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un nombre croissant d'ontologies de grandes tailles ont été développées et mises à disposition dans des référentiels tels que le NCBO Bioportal. L'accès aux connaissances les plus pertinentes contenues dans les grandes ontologies a été identifié comme un défi important. À cette fin, nous proposons dans cette thèse trois notions différentes : modules d’ontologie minimale (sous-ontologies conservant toutes les implications sur un vocabulaire donné), meilleurs extraits ontologiques (certains petits nombres d’axiomes qui capturent le mieux les connaissances sur le vocabulaire permettant un degré de perte sémantique) et un module de projection (sous-ontologies d'une ontologie cible qui impliquent la subsomption, les requêtes d'instance et les requêtes conjonctives issues d'une ontologie de référence). Pour calculer le module minimal et le meilleur extrait, nous introduisons la notion de justification de subsomption en tant qu'extension de la justification (ensemble minimal d'axiomes nécessaires pour conserver une conséquence logique) pour capturer la connaissance de subsomption entre un terme et tous les autres termes du vocabulaire. De même, nous introduisons la notion de justifications de projection qui impliquent une conséquence pour trois requêtes différentes afin de calculer le module de projection. Enfin, nous évaluons nos approches en appliquant une implémentation prototype sur de grandes ontologies
An increasing number of ontologies of large sizes have been developed and made available in repositories such as the NCBO Bioportal. Ensuring access to the most relevant knowledge contained in large ontologies has been identified as an important challenge. To this end, in this thesis, we propose three different notions: minimal ontology modules (sub-ontologies that preserve all entailments over a given vocabulary), best ontology excerpts (certain, small number of axioms that best capture the knowledge regarding the vocabulary by allowing for a degree of semantic loss) and projection module (sub-ontologies of a target ontology that entail subsumption, instance and conjunctive queries that follow from a reference ontology). For computing minimal module and best excerpt, we introduce the notion of subsumption justification as an extension of justification (a minimal set of axioms needed to preserve a logical consequence) to capture the subsumption knowledge between a term and all other terms in the vocabulary. Similarly, we introduce the notion of projection justifications that entail consequence for three different queries in order to computing projection module. Finally, we evaluate our approaches by applying a prototype implementation on large ontologies
34

Thomazo, Michaël. "Conjunctive Query Answering Under Existential Rules - Decidability, Complexity, and Algorithms". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00925722.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif du problème appelé "Ontology-based data access" (OBDA) est d'améliorer la réponse à des requêtes en prenant en compte des connaissances d'ordre général durant l'évaluation des requêtes. Ces connaissances générales sont représentées à l'aide d'une ontologie, qui est exprimée dans cette thèse grâce à des formules logiques du premier ordre, appelées règles existentielles, et aussi connues sous le nom de "tuple-generating dependencies" et Datalog+/-. L'expressivité des formules utilisées est telle que l'évaluation de requêtes devient un problème indécidable, et cela a conduit la communauté à définir de nombreux cas décidables, c'est-à-dire des restrictions sur les ensembles de règles existentielles considérés. La contribution de cette thèse est double : tout d'abord, nous proposons une vue unifiée sur une grande fraction des cas décidables connus, et fournissons par là même une analyse de complexité et un algorithme optimal dans le pire des cas. Nous considérons également l'approche couramment utilisée de réécriture de requêtes, et proposons un algorithme générique qui permet de surmonter certaines causes évidentes d'explosion combinatoire qui rendent les approches classiques pratiquement inapplicables.
35

Azough, Ahmed. "Modèle sémantique de la vidéo pour la description, la détection et la recherche des événements visuels". Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse consiste à explorer l'usage d'outils de support de la sémantique des données dans le domaine du multimédia. La première contribution concerne la génération de descriptions de haut-niveau. Nous proposons un langage de description de haut-niveau qui permet la définition d'événements et d'objets à partir de caractéristiques de bas-niveau. La deuxième contribution concerne l'exploration de certains types de raisonnement dans le contexte de la multimédia sémantique. Nous proposons un langage sémantique (fondé sur les graphes conceptuels flous) pour la description des vidéos et définissons des mécanismes de raisonnement sous-jacents. La troisième contribution porte sur l'indexation et la recherche sémantique dans les bases de données multimédia. Nous proposons un langage de requêtes issu des bases de données déductives pour l'expression de requêtes spatiotemporelles et sémantiques
This thesis is about to explore the use of tools to support semantics of data in the field of multimedia. The first contribution concerns the generation of high-level descriptions. We propose a description language that allows high-level definition of events and objects from low-level features. The second contribution is the exploration of certain types of uncertainty reasoning in the context of multimedia semantics. We propose a semantic language (based on fuzzy conceptual graphs) for descriptions of videos and define mechanisms underlying reasoning. The third contribution relates to the semantic indexing and retrieval in multimedia databases. We propose a query language from deductive databases for the expression of spatiotemporal and semantic queries
36

Brunet, Eric. "Conception et réalisation d'un système expert d'aide à l'interprétation des chocs mécaniques en centrale nucléaire". Compiègne, 1988. http://www.theses.fr/1988COMPD113.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail réalisé a permis la conception d'un générateur de systèmes experts d'aide au diagnostic (MIGRE) et la réalisation, à partir de celui-ci, d'un système d'aide à l'interprétation des chocs mécaniques en centrale nucléaire. Le problème central du développement de systèmes à base de connaissances est lié au concept de " connaissance ". MIGRE propose une classification des connaissances en trois niveaux. Le premier concerne les connaissances de base ou descriptives et est formalisé à travers un modèle Entité-Relation. Le second niveau associe aux concepts de base des informations spécifiques à leurs utilisations (notions de vecteurs de connaissances). Le dernier niveau concerne les connaissances d'expertise (règle de stratégie, inférence, définition,. . . ). L'éditeur de base d'expertise comporte une Interface en Langage Naturel spécialisé dont l'objectif est de comprendre " le sens " d'une phrase sur le domaine décrit par le modèle conceptuel (niveaux 1 et 2) (réalisation à travers une Definite Clause Grammar). La résolution d'un problème est guidée par la réponse du Module d'Exploitation des Connaissances (MEC) à un certain nombre de tâches élaborées dynamiquement. Les travaux réalisés ont montré d'une part l'intérêt des résultats obtenus dans d'autres domaines tels la psychologie cognitive et d'autre part que la compréhension de phrases et le raisonnement nécessitent un même ensemble de connaissances élémentaires (mémoire sémantique)
The main purpose of this research work was the design of a Diagnostic Expert System work bench (MIGRE) and, from it, the realization of a system to aid the interpretation of mechanical impacts in nuclear power plants. The central problem for knowledge based system is related to the concept of “knowledge”. MIGRE proposes a three-level classification of knowledge. The first level is concerned with basic or descriptive knowledge and is formalised in an Entity-Relation model. The second level associates the basic concepts with specific information (“Knowledge Vector”). The last level deals with inference knowledge. Each element of expertise is represented by a “marked” rule (strategy, inference, definition,. . . ). MIGRE provides tools support the activities of application development. Thus, the knowledge base editor includes a Specialized Natural Language Interface, whose aim is to understand the “meaning” of a sentence, and in particular to look for “implicit” knowledge. The parser is a semantic one, using a Definite Clause Grammar. Problem solution is guided by the answers given by the knowledge Exploitation module to a number of tasks extended dynamically during the reasoning. The results show that the two “intellectual” activities of understanding sentences and reasoning to solve a problem require a common core of knowledge
37

Ramon, Sébastien. "Méthodes permettant la prédominance de connaissances subsumées". Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0405/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’inscrit dans le domaine de l’Intelligence Artificielle symbolique. Elle y traite d’une question fondamentale liée à la représentation des connaissances et des raisonnements à base de logique. Plus précisément, elle s’intéresse au problème pouvant se produire lors de l’insertion dans un ensemble de connaissances d’une information qui peut déjà en être déduite. Comment faire en sorte que cette nouvelle information vienne préempter les informations qui permettent son inférence ? Supposons par exemple qu’un ensemble de prémisses contienne l’information “Si l’interrupteur est enclenché alors la pièce est éclairée”. Il est naturel d’espérer que l’ajout d’une règle additionnelle, en un sens plus précise que la première, et qui exprime que “Si l’interrupteur est enclenché et si l’ampoule n’est pas cassée alors la pièce est éclairée”, puisse venir la préempter. En effet, il ne doit plus être suffisant de savoir que “L’interrupteur soit enclenché” pour en conclure que “La pièce est éclairée” : il faut aussi que “L’ampoule ne soit pas cassée”. Remarquons que la seconde règle est consistante avec la première et que les cadres de logiques non monotones et de révision de croyances ou de mise à jour ne traitent pas a priori de ce problème. Nous adressons d’abord cette question dans le cadre de la logique classique et ensuite dans un cadre plus général de représentation à base de logiques non monotones, et particulièrement de celles permettant la représentation de règles avec exceptions reposant sur des tests de consistance
This thesis is in line with the symbolic Artificial Intelligence domain. It deals with a fondamental issue of the logic-based knowledge and reasoning representation. Most particulary, this thesis is interested in the issue occurring when a piece of information is added to a knowledge set which already entails it. How to make sure that this new piece of information prevails the ones that allow its inference? Suppose for instance that a premisses set contains the piece of information “If the switch is on then the room is lighted”. It is natural to expect that adding an additional rule, in a way more precise than the first one, and which assert that “If the switch is on and if the lamp bulb is not broken then the room is lighted”, could prevail it. Indeed, it will not be sufficient to know that “The switch is on” to conclude that “The room is lighted”: it is now necessary that “The lamp bulb is not broken”. Let us note that the second rule is consistent with the first one and that the non monotonic logics and beliefs revision or update frameworks do not handle this issue in principle. First of all, we adress this issue in the classical logic framework, and secondly in a most general framework of non monotonic logic based representation, and particulary the ones that allow the representation of rules with exceptions subject of consistency test
38

Rocher, Swan. "Querying existential rule knowledge bases : decidability and complexity". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT291/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons au problème d'interrogation de bases de connaissances composées de données et d'une ontologie, qui représente des connaissances générales sur le domaine d'application. Parmi les différents formalismes permettant de représenter les connaissances ontologiques, nous considérons ici un fragment de la logique du premier ordre appelé règles existentielles (aussi connues sous le nom de ``tuple generating dependencies'' et Datalog+/-). Le problème fondamental de conséquence logique au cœur de cette thèse demande si une requête conjonctive est conséquence d'une base de connaissances. Les règles existentielles étant très expressives, ce problème est indécidable. Toutefois, différentes restrictions sur les ensembles de règles ont été proposées afin d'obtenir sa décidabilité.La contribution de cette thèse est double. Premièrement, nous proposons un outil qui nous permet d'unifier puis d'étendre la plupart des classes de règles connues reposant sur des notions d'acyclicité assurant la finitude du chaînage avant. Deuxièmement, nous étudions la compatibilité des classes décidables de règles existentielles connues avec un type de connaissance souvent nécessaire dans les ontologies: la transitivité de relations binaires. Nous aidons à clarifier le paysage des résultats positifs et négatifs liés à cette question et fournissons une approche permettant de combiner la transitivité avec les règles existentielles linéaires
In this thesis we investigate the issue of querying knowledge bases composed of data and general background knowledge, called an ontology. Ontological knowledge can be represented under different formalisms and we consider here a fragment of first-order logic called existential rules (also known as tuple-generating dependencies and Datalog+/-).The fundamental entailment problem at the core of this thesis asks if a conjunctive query is entailed by an existential rule knowledge base. General existential rules are highly expressive, however at the cost of undecidability. Various restrictions on sets of rules have been proposed to regain the decidability of the entailment problem.Our specific contribution is two-fold. First, we propose a new tool that allows to unify and extend most of the known existential rule classes that rely on acyclicity conditions to tame infinite forward chaining, without increasing the complexity of the acyclicity recognition. Second, we study the compatibility of known decidable rule classes with a frequently required modeling construct, namely transitivity of binary relations. We help clarifying the picture of negative and positive results on this question, and provide a technique to safely combine transitivity with one of the simplest, yet useful, decidable rule classes, namely linear rules
39

Goasdoué, François. "Knowledge Representation meets DataBases for the sake of ontology-based data management". Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00759274.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This Habilitation thesis outlines my research activities carried out as an Associate Professor at Univ. Paris-Sud and Inria Saclay Île-de-France. During this period, from 2003 to early 2012, my work was - and still is - at the interface between Knowledge Representation and Databases. I have mainly focused on ontology-based data management using the Semantic Web data models promoted by W3C: the Resource Description Framework (RDF) and the Web Ontology Language (OWL). In particular, my work has covered (i) the design, (ii) the optimization, and (iii) the decentralization of ontology-based data management techniques in these data models. This thesis briefly reports on the results obtained along these lines of research.
40

Belouaer, Lamia. "Représentation de la connaissance spatiale pour la planification". Caen, 2011. http://www.theses.fr/2011CAEN2070.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons à la prise en compte de l'information spatiale d'un point de vue de la représentation et du raisonnement afin de planifier une mission dans le cadre de l'interaction homme-robot. Une première partie de la thèse concerne la représentation et le raisonnement spatial. Nous proposons une ontologie spatiale : SpaceOntology permettant de représenter l'information spatiale qualitative, quantitative et de mener un raisonnement sur celle-ci. Sur la base de cette modélisation spatiale nous avons mis en place un planificateur avec deux modules : un module de raisonnement symbolique supporté par un planificateur de tâches et un module de raisonnement spatial supporté par le planificateur de chemins et SpaceOntology. Enfin, la troisième partie de nos contributions concerne l'extension du langage de planification PDDL à l'information spatiale. Cette extension permet de donner à un problème de planification une sémantique spatiale
We are interested in the integration of spatial information for representation and reasoning to plan a mission in the human-robot interaction case. The first part of our work is for representation and spatial reasoning. We propose a spatial ontology: SpaceOntology qualitative and quantitative representation and reasonning. Based on this spatial modeling we have implemented a planner with two modules: a module for symbolic reasoning supported by a task planner and a module for spatial reasoning supported by the path planning and SpaceOntology. The third part of our contributions is the extension of the PDDL planning language to spatial information. This extension permits to express spatial planning problems
41

Duong, Vu Nguyen. "La résolution des réseaux de contraintes algébriques et qualitatives : une approche d'aide à la conception en ingéniérie". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1990. http://tel.archives-ouvertes.fr/tel-00520680.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse est que la représentation par contraintes, en terme de langage et la déduction par la gestion automatique des réseaux de contraintes est une voie adéquate pour les systèmes d'aide à la conception en ingénierie. Deux techniques de l'Intelligence Artificielle à savoir la Propagation de Contraintes et le Raisonnement Qualitatif sont abordées. La Propagation de Contraintes est un mécanisme d'inférences déductives sur les réseaux de contraintes. Ce mécanisme présente plusieurs difficultés, particulièrement dans les calculs pas-à-pas de la résolution des relations entre valeurs des variables. Pour améliorer ce mécanisme, il est proposé dans le présente travail des algorithmes de filtrage sur la consistance locale dans des réseaux de contraintes algébriques n-aires. Ainsi, le concept de réseaux dynamiques est exploité comme un module d'aide à la conception. Le Raisonnement Qualitatif permet aux concepteurs d'analyser les modèles quand la connaissance est incomplète. L'approche de la Simulation Qualitative est proposée. L'adéquation de celle-ci est illustrée par d'une part, la représentation de connaissances incomplètes en termes de contraintes qualitatives, et d'autre part, sa capacité de saisir les comportements qualitatifs possibles des modèles. Un ensemble de logiciels est développé et leur efficacité démontrée sur des cas simples.
42

Son, Ji min. "/Répétition/ (mot barré) : la non-représentation du vouloir-dire et le dernier retour de l’histoire de l’art par le dispraître". Thesis, Paris, EHESS, 2017. http://www.theses.fr/2017EHES0071/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans sa provenance platonicienne, l’idéal de l’incarnation de l’Idée doit à la fois affronter des individualités (pré)déterminées et qualitativement différentes (le pluralisme) – qui sont répétitions et répétées elles-mêmes. Il doit devenir le vouloir-dire de la personne qui s’efforce de mettre en œuvre ce dernier et qui cherche à franchir les limites ontologiques de la représentation. Cependant, l’irréalisabilité de la pure répétition du vouloir-dire – ou de n’importe quel « sujet » – atteste de la présence absente du même dans le processus de sa mise en œuvre ; la répétition est toujours déjà répétition différenciatrice, son acte même toujours susceptible d’être perçu comme mimétique en pratique. Lorsque nous « créons », nous cherchons une différence absolue (singularisation) tout en visant l’universalité du vouloir-dire, l’Univocité. Autrement dit, c’est l’inévitabilité de la répétition différenciatrice (« nouveauté ») qui se répète et tend vers un dernier résultat censé être absolument univoque et intersubjectivement compris et jugé. Cette inévitabilité signifie-t-elle une (ou la dernière) impasse théorique – une « fin » – insurmontable ? Comment les artistes, les historiens d’art et les philosophes s’y prennent-ils ? Entre l’origine et le futur de l’art, quelle puissance de la répétition devrait-on y chercher pour ne plus répéter « une répétition pour toute » ?
From its Platonic source, the ideal of embodiment of Idea must face individualities which are (pre)determined and qualitatively different – and are themselves repetitions repeated. It must become “what-is-wanted-to-be-said” or “meaning” (“vouloir-dire”) of the person who endeavors to realize it and to attempt to exceed the ontological limits of representation. Meanwhile, the unrealizability of pure repetition of the “vouloir-dire” – like any other “subject matter” – testifies to the absent presence of the same in the process of its realization; each and every repetition is always already a differential repetition, and its act itself always susceptible to be taken as mimetic in practice. When we “create”, we search for the absolute difference (singularization) while aiming at a universality of the “vouloir-dire”, Univocity. Put another way, it is the inevitability of the differential repetition (“newness”) that repeats itself and moves towards the last outcome that is meant to be unique in itself and intersubjectively understood and judged. Does this inevitability point towards a (or the last) insurmountable theoretical stalemate – “an end”? How do artists, art-historians, and philosophers deal with this problem? Between the origin and the future of art, what sort of force of repetition do we have to look for in order to finally no longer repeat “one repetition for all”?
43

Guérin, Clément. "Proposition d'un cadre pour l'analyse automatique, l'interprétation et la recherche interactive d'images de bande dessinée". Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS024/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le paysage numérique de la culture française et mondiale subit de grands bouleversements depuis une quinzaine d’années avec des mutations historiques des médias, de leur format traditionnel au format numérique, tirant avantageusement parti des nouveaux moyens de communication et des dispositifs mobiles aujourd’hui popularisés. Aux côtés de formes culturelles ayant achevé, ou étant en passe d’achever, leur transition vers le numérique, la bande dessinée tâtonne encore pour trouver sa place dans l’espace du tout dématérialisé. En parallèle de l’émergence de jeunes auteurs créant spécifiquement pour ces nouveaux supports de lecture que sont ordinateurs, tablettes et smartphones, plusieurs acteurs du monde socio-économique s’intéressent à la valorisation du patrimoine existant. Les efforts se concentrent autant sur une démarche d’adaptation des œuvres aux nouveaux paradigmes de lecture que sur celle d’une indexation de leur contenu facilitant la recherche d’informations dans des bases d’albums numérisés ou dans des collections d’œuvres rares. La problématique est double, il s’agit premièrement d’être en mesure d’identifier la structure d’une planche de bande dessinée en se basant sur des extractions de primitives, issues d’une analyse d’image, validées et corrigées grâce à l’action conjointe de deux ontologies, la première manipulant les extractions d’images bas-niveau, la deuxième modélisant les règles de composition classiques de la bande dessinée franco-belge. Dans un second temps l’accent est mis sur l’enrichissement sémantique des éléments identifiés comme composants individuels d’une planche en s’appuyant sur les relations spatiales qu’ils entretiennent les uns avec les autres ainsi que sur leurs caractéristiques physiques intrinsèques. Ces annotations peuvent porter sur des éléments seuls (place d’une case dans la séquence de lecture) ou sur des liens entre éléments (texte prononcé par un personnage)
Since the beginning of the twenty-first century, the cultural industry, both in France and worldwide, has been through a massive and historical mutation. They have had to adapt to the emerging digital technology represented by the Internet and the new handheld devices such as smartphones and tablets. Although some industries successfully transfered a piece of their activity to the digital market and are about to find a sound business model, the comic books industry keeps looking for the right solution and has not yet produce anything as convincing as the music or movie offers. While many new young authors and writers use their creativity to produce specifically digital designed pieces of art, some other minds are focused on the preservation and the development of the already existing heritage. So far, efforts have been concentrated on the transfer from printed to digital support, with a special attention given to their specific features and how they can be used to create new reading conventions. There has also been some concerns about the content indexing, which is a hard task regarding the large amount of data created since the very beginning of the comics history. From a scientific point of view, there are several issues related to these goals. First, it implies to be able to identify the underlying structure of a comic books page. This comes through the extraction of the page's components, their validation and their correction based on the representation and reasoning capacities of two ontologies. The first one focus on the representation of the image analysis concepts and the second one represents the comic books domain knowledge. Secondly, a special attention is given to the semantic enhancement of the extracted elements, based on their spatial relations to each others and on their own characteristics. These annotations can be related to elements only (e.g. the position of a panel in the reading sequence), or to the bound between several elements (e.g. the text pronounced by a character)
44

Sala, Michel. "Proposition d'une méthodologie et d'un environnement d'apprentissage d'aide à la découverte scientifique : application à la génétique, l'environnement SIGALE". Montpellier 2, 1996. http://www.theses.fr/1996MON20019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons une methodologie pour concevoir un environnement d'apprentissage qui permet au chercheur de modeliser son modele du domaine dans le cadre d'aide a la decouverte scientifique. Le modele du domaine est represente sous forme de base de connaissances contenant un ensemble de contraintes sur les donnees experimentales et les resultats des outils de calcul. A la suite d'incoherences entre les experimentations et la base de connaissances, l'environnement d'apprentissage fournit un ensemble d'explications concernant les contraintes non respectees ainsi que des informations complementaires selectionnees dans des bases de donnees du domaine
45

Qiu, Mingming. "Designing smart home services using machine learning and knowledge-based approaches". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'intelligence de la maison intelligente est réalisée en créant divers services. Chaque service tente d'ajuster un état monitoré en contrôlant les actionneurs associés après avoir pris en compte les états de l'environnement détectés par les capteurs. Cependant, la conception de la logique des services déployés dans une maison intelligente se heurte à des limitations soit d'adaptabilité dynamique (règles prédéfinies) soit d'explicabilité (techniques d'apprentissage). Quatre propositions s'inscrivant dans une approche hybride combinant des règles prédéfinies et des techniques d'apprentissage visent à lever ces limitations. La première proposition consiste à utiliser l'apprentissage renforcé pour créer un service dynamique. Le déploiement de ce service unique comprend deux phases : le pré-entraînement dans la simulation et l'entraînement continu dans le monde réel. Notre étude se concentre uniquement sur la partie simulation. En étendant la première proposition, la deuxième proposition propose plusieurs architectures pour créer plusieurs services dynamiques et sans conflit. Cependant, les services dirigés par les données ne sont pas explicables. Par conséquent, la troisième proposition vise à extraire des services explicables basés sur la connaissance à partir de services dynamiques dirigés par les données. La quatrième proposition tente de combiner les deuxième et troisième propositions pour créer des services dynamiques et explicables. Ces propositions sont évaluées dans un environnement simulé sur des services de contrôle de la température, de l'intensité lumineuse et de la qualité de l'air adaptés aux activités de l'habitant. Elles peuvent être étendues selon plusieurs perspectives, telles que la co-simulation de phénomènes physiques, l'adaptation dynamique à différents profils d'habitant, et l'efficacité énergétique des services déployés
The intelligence of a smart home is realized by creating various services. Eachservice tries to adjust one monitored state by controlling related actuators after consideringenvironment states detected by sensors. However, the design of the logic of the services deployedin a smart home faces limitations of either dynamic adaptability (predefined rules) orexplicability (learning techniques). Four proposals that are parts of a hybrid approach combiningpredefined rules and learning techniques aim at mitigating these limitations.The first proposal is to use reinforcement learning to create a dynamic service. The deploymentof this single service includes two phases : pretraining in the simulation and continuous trainingin the real world. Our study only focuses on the simulation part. Extending the first proposal,the second proposal proposes several architectures to create multiple dynamic and conflictfreeservices. However, the created data-driven services are not explicable. Therefore, the thirdproposal aims to extract explicable knowledgebased services from dynamic data-driven services.The fourth proposal attempts to combine the second and third proposals to create dynamicand explicable services. These proposals are evaluated in a simulated environment ontemperature control, light intensity, and air quality services adapted to the activities of the inhabitant.They can be extended according to several perspectives, such as the co-simulation ofphysical phenomena, the dynamic adaptation to various inhabitant profiles, and the energy efficiencyof the deployed services
46

Shang, Wei. "Un système et un langage pour le traitement d'inférences non monotone". Compiègne, 1990. http://www.theses.fr/1990COMPD299.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans ce mémoire un système d'inférence en logiques non-monotones. Ce système a pour objet de représenter les connaissances et le raisonnement révisables. Une étude sur les différentes stratégies de recherche dans l'espace de solutions a été présentée, nous montrons à travers des exemples, que l'enregistrement des dépendances de l'inférence peut optimiser sensiblement la recherche dans l'espace de solutions. Nous décrivons ensuite un système de contrôle de cohérence : ATMS de J. De Kleer, c'est un système à base de dépendances, qui est utilisé comme un module d'inférence dans notre système. Plusieurs systèmes logiques non standards sont aussi présentés, nous mettrons l'accent particulièrement sur les logiques des défauts de R. Reiter, pour lesquelles une version restreinte (défauts nromaux) est réalisée. ANMIL est le langage d'inférence du système, il est décrit en détail. Le la,gage est à base de calcul des prédicats, la non-monotonie demeure dans les règles de défaut et les règles supposées. L'environnement de l'influence de l'ANMIL est multi-contextes, les hypothèses sont gérées automatiquement. L'utilisation des principales commandes est aussi expliquée, la syntaxe du langage est donnée. ANMIS est le système d'inférence. Sa conception est présentée. On y distingue deux modules : un moteur d'inférence proprement dit et un module de gestion de croyances ATMS. Cette séparation, est à notre avis, la meilleure architecture pour effectuer l'inférence non-monotone. Les différentes stratégies d'inférence sont adaptées selon le type de règles (règles de type de clause de Horn ou non). Les techniques ainsi que les difficultés de la réalisation sont discutées
In this thesis a non-monotonic inference system is presented, its purpose is to represent revisable knowledge and perform corresponding reasoning. A study of different research strategies of the solution space is presented, it is shown, through the exemples, that the recording of the inference dependencies can considerably optimize the research in the solution space. Then we describe un belief revision system: AS of J. De Kleer. It is a dependency based one, and is used as m inference unit in our system. Several non-standard logics are also presented, we pay pie1mly attention to R. Reiter's default logic, for which a restrained version (normal defaults) is realized. ANMIL is the inference Ianguage of this system, it is described in detail. The language is a predicate based one, the non-monotony resides in the default and the assumed rules. Its inference environment is the mufti-contexts one, the assumptions me automatically managed. We also explain the principal commands and give the syntax of ANMIL. ANMIS is the inference system. Its concepts are presented. Two sub-systems can be distinguished : an inference engine and a belief revision manager. This kind of architecture, in our opinion, is the best one for performing non-monotonic inference. The different inference strategies are employed according to the type of rides. The techniques and difficulties of the implementation of the system are discussed
47

Lemaignan, Severin. "Grounding the interaction : knowledge management for interactive robots". Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0010/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec le développement de la robotique cognitive, le besoin d’outils avancés pour représenter, manipuler, raisonner sur les connaissances acquises par un robot a clairement été mis en avant. Mais stocker et manipuler des connaissances requiert tout d’abord d’éclaircir ce que l’on nomme connaissance pour un robot, et comment celle-ci peut-elle être représentée de manière intelligible pour une machine. Ce travail s’efforce dans un premier temps d’identifier de manière systématique les besoins en terme de représentation de connaissance des applications robotiques modernes, dans le contexte spécifique de la robotique de service et des interactions homme-robot. Nous proposons une typologie originale des caractéristiques souhaitables des systèmes de représentation des connaissances, appuyée sur un état de l’art détaillé des outils existants dans notre communauté. Dans un second temps, nous présentons en profondeur ORO, une instanciation particulière d’un système de représentation et manipulation des connaissances, conçu et implémenté durant la préparation de cette thèse. Nous détaillons le fonctionnement interne du système, ainsi que son intégration dans plusieurs architectures robotiques complètes. Un éclairage particulier est donné sur la modélisation de la prise de perspective dans le contexte de l’interaction, et de son interprétation en terme de théorie de l’esprit. La troisième partie de l’étude porte sur une application importante des systèmes de représentation des connaissances dans ce contexte de l’interaction homme-robot : le traitement du dialogue situé. Notre approche et les algorithmes qui amènent à l’ancrage interactif de la communication verbale non contrainte sont présentés, suivis de plusieurs expériences menées au Laboratoire d’Analyse et d’Architecture des Systèmes au CNRS à Toulouse, et au groupe Intelligent Autonomous System de l’université technique de Munich. Nous concluons cette thèse sur un certain nombre de considérations sur la viabilité et l’importance d’une gestion explicite des connaissances des agents, ainsi que par une réflexion sur les éléments encore manquant pour réaliser le programme d’une robotique “de niveau humain”
With the rise of the so-called cognitive robotics, the need of advanced tools to store, manipulate, reason about the knowledge acquired by the robot has been made clear. But storing and manipulating knowledge requires first to understand what the knowledge itself means to the robot and how to represent it in a machine-processable way. This work strives first at providing a systematic study of the knowledge requirements of modern robotic applications in the context of service robotics and human-robot interaction. What are the expressiveness requirement for a robot? what are its needs in term of reasoning techniques? what are the requirement on the robot's knowledge processing structure induced by other cognitive functions like perception or decision making? We propose a novel typology of desirable features for knowledge representation systems supported by an extensive review of existing tools in our community. In a second part, the thesis presents in depth a particular instantiation of a knowledge representation and manipulation system called ORO, that has been designed and implemented during the preparation of the thesis. We elaborate on the inner working of this system, as well as its integration into several complete robot control stacks. A particular focus is given to the modelling of agent-dependent symbolic perspectives and their relations to theories of mind. The third part of the study is focused on the presentation of one important application of knowledge representation systems in the human-robot interaction context: situated dialogue. Our approach and associated algorithms leading to the interactive grounding of unconstrained verbal communication are presented, followed by several experiments that have taken place both at the Laboratoire d'Analyse et d'Architecture des Systèmes at CNRS, Toulouse and at the Intelligent Autonomous System group at Munich Technical University. The thesis concludes on considerations regarding the viability and importance of an explicit management of the agent's knowledge, along with a reflection on the missing bricks in our research community on the way towards "human level robots"
48

Bocéréan, Christine. "Représentation de la mémoire perceptive et raisonnement analogique". Nancy 2, 1999. http://www.theses.fr/1999NAN21016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif principal de la recherche est d'appliquer le modèle de raisonnement analogique de Rumelhart et Abrahamson (1977) initialement validé dans un contexte sémantique, à des stimuli perceptifs de type cubes de Kohs. Dans ce modèle, la mémoire sémantique correspondant aux concepts des noms de mammifères est représentée en tant qu'espace multidimensionnel, dans lequel sont exprimées les relations de similarité entre ces concepts. Un algorithme permet de définir la probabilité de choix des distracteurs, dans des analogies de type 'A est à B, ce que C est à {D1, D2, D3, D4}'. La première étape de la recherche a consisté à élaborer la représentation de la mémoire perceptive des configurations de type cubes de Kohs. Les liens de similarité existant entre un même ensemble d'items et observés au cours de cinq épreuves perceptives différentes ont été analysés : une épreuve de dessin, une épreuve de tri subjectif, une épreuve d'échelles d'évaluation, une épreuve de rotation mentale et une épreuve de classification figure-fond. Les données recueillies au cours de chaque expérimentation ont été traitées par Echelonnement Multidimensionnel, et cinq représentations de la mémoire perceptive ont ainsi été obtenues. Il a été démontré que ces diverses représentations étaient similaires, c'est-à-dire que les items et les liens de similarité qu'ils entretiennent sont perçus de façon identique, quel que soit le contexte perceptif. L'analyse de l'univers de items (1296 configurations à 4 faces) a permis de désigner un certain nombre de stimuli représentatifs, ainsi l'espace représentant la mémoire perceptive de l'ensemble des items de cubes de Kohs a été construit. A partir de cet espace, des problèmes analogiques ont été élaborés, en respectant la méthodologie des auteurs. L'analyse des résultats a montré que l'algorithme permettant de calculer la probabilité de désigner chacun des distracteurs en tant que meilleure réponse à une analogie expliquait la plupart des résultats. La validité du modèle de raisonnement analogique, testé dans un contexte perceptif, a été démontrée. Mais les résultats obtenus ont des implications qui débordent du cadre d'un modèle de raisonnement analogique : ils permettent d'affirmer l'identité de structure et de fonctionnement de la mémoire sémantique et de la mémoire perceptive.
49

Lecomte, Maxime. "Approche hybride de modélisation explicable du métabolisme des écosystèmes microbiens". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0094.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les communautés microbiennes sont des systèmes complexes composés de diverses espèces de micro-organismes interagissant entre elles et avec leur environnement. La biologie des systèmes offre un cadre pour leur étude, alliant expérimentation, génération de données à haut-débit et leur intégration dans des modèles informatiques. La compréhension de ces communautés passe notamment par celle de leur métabolisme et des échanges de molécules entre espèces susceptibles d’impacter positivement ou négativement chacun des membres. Le métabolisme est un ensemble de réactions biochimiques et peut s’abstraire à l’échelle d’un génome par des réseaux faisant le lien entre les gènes et les réactions d’un organisme. Ces réseaux permettent de construire des modèles métaboliques, représentations informatiques ou mathématiques du comportement des organismes dans des conditions expérimentales. Le passage de l’individu à la communauté, composée de quelques espèces en conditions contrôlées, ou de plusieurs centaines en conditions environnementales, soulève des difficultés méthodologiques dans la construction des modèles. Ce manuscrit de thèse traite de la modélisation du métabolisme et des interactions métaboliques au sein des écosystèmes microbiens en mettant l’emphase sur l’explication des mécanismes cellulaires qui justifient les interactions bactériennes. Des solutions numériques sont majoritairement utilisées - assurant la précision des résultats - mais sont confrontées à l’importante combinatoire engendrée par les interactions bactériennes pour des communautés de grande taille. Les réponses apportées par les approches discrètes surmontent la problématique du passage à l’échelle mais sont limitées à une analyse par paire d’organismes. Afin d’identifier un potentiel ajustement méthodologique - conciliant les avantages des deux démarches, i.e. trouver une approche hybride - une première contribution se focalise sur le développement d’un modèle numérique dynamique et précis d’une communauté fromagère composée de trois souches. Notre stratégie itérative a permis l’intégration de données hétérogènes au moyen d’étapes de raffinement et de calibration dynamique. Ces allers-retours entre la connaissance et le modèle ont assuré la bonne prédiction des concentrations des métabolites dosés en métabolomique ainsi que des densités bactériennes au cours de la cinétique de fabrication du fromage. Dans une seconde contribution, nous proposons un modèle par raisonnement permettant de cibler des potentiels de coopération et de compétition dans des communautés bactériennes. Ce modèle repose sur l’inférence de règles logiques inférées de la biologie pour évaluer et comparer les potentiels d’interaction de communautés. Des potentiels d’interaction spécifiques à des écosystèmes ont été révélés ainsi que la pertinence de son utilisation grâce à sa rapidité d’exécution. Enfin, la troisième contribution est une réflexion portant sur l’enrichissement du modèle logique. Nous proposons un prototype s’appuyant sur l’inférence de règles logiques et permettant de (i) sélectionner la meilleure communauté à partir de contraintes biologiques et (ii) d’apporter une notion temporelle, pouvant influencer les potentiels d’interactions. Par cette thèse, nous avons montré que la construction d’un modèle de modélisation hybride du métabolisme n’est pas nécessaire, mais qu’une approche hybride, utilisant des modèles numériques, pour des communautés de petite taille et des modèles discrets, pour analyser rapidement les communautés de taille réelle semble être pertinente
Microbial communities are complex systems composed of various species of microorganisms interacting with each other and with their environment. Systems biology offers a framework for their study, combining experimentation, high-throughput data generation and the integration of the latter into computer models. Understanding these ecosystems requires the analysis of their metabolism and of the exchange of molecules between members, which can have positive or negative impacts on each other. Metabolism is a set of biochemical reactions that can be represented as a genome-scale metabolic network through the association of genes and reactions in an organism. These networks can be used to build metabolic models, mathematical representations of organism behavior under given environmental conditions. Scaling up to the analysis of a community composed of a few species under controlled conditions, or several hundreds in natural environments, raises methodological difficulties in the construction of models. This thesis manuscript deals with the construction of computational models for the analysis of metabolism and metabolic interactions in microbial ecosystems, with a particular attention on explaining the cellular mechanisms underlying bacterial interactions. Numerical solutions are mainly used - ensuring the accuracy of results - but they face combinatorial issues generated by bacterial interactions in large-scale communities. Discrete approaches overcome this problem, but are limited to pairwise analysis. In order to identify a putative methodological tradeoff reconciling the advantages of both approaches, i.e. finding a hybrid approach, a first contribution focuses on the development of a dynamic and accurate numerical model of a cheese bacterial community composed of three strains. Our iterative strategy enables the integration of heterogeneous data through refinement and dynamic calibration steps. This back-and-forth between knowledge and model ensures the accurate prediction of metabolite concentrations and bacterial densities during cheese production. We propose as a second contribution a reasoning-based model for deciphering cooperative and competitive potentials in bacterial communities. This model relies on the inference of logical rules motivated by biology in order to evaluate and compare community interaction potentials. Ecosystem-specific interactions potentials are retrieved, and the fast execution of the reasoning-based approach facilitates the screening of collections of communities. Finally, the third contribution is a reflection on the enrichment of the logic model. We propose a prototype based on the inference of logical rules, enabling (i) the selection of the best community based on biological constraints and (ii) the inference of a temporal notion, which can impact interaction potentials. Through this thesis, we demonstrate that the construction of a hybrid model of metabolism is not required but that a hybrid approach, using numerical models for small communities and discrete models for rapid analysis of full-size communities, seems to be relevant
50

Lecas, Jean-François. "Développement du raisonnement conditionnel et modèles mentaux". Dijon, 2000. http://www.theses.fr/2000DIJOL007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Théorie des Modèles Mentaux (Johnson-Laird & Byrne, 1991 ; Johnson-Laird, Byrne & Schaeken, 1992). Nous montrons dans une première partie que le raisonnement conditionnel se développe entre l’enfance et l’adolescence. Ce développement se traduit par la construction d’un seul modèle (interprétation conjonctive) chez les jeunes enfants (i. E. , 8-9 ans), auquel s’ajoute un second modèle (interprétation biconditionnelle ) au début de l’adolescence (i. E. , 11-12 ans) puis enfin un troisième (interprétation conditionnelle) à la fin de l’adolescence (i. E. , à partir de 15 ans). Ces résultats ont été obtenus à travers trois paradigmes expérimentaux (tâche de falsification et de production de cas et tâche de production d’inférences). Une deuxième partie montre que la compréhension du conditionnel est influencée par le contenu sémantique des propositions utilisées. Les énoncés comportant des propositions binaires (i. E. , possédant un inverse sémantique) sont davantage interprétés comme des biconditionnelles que les énoncés non binaires (i. E. , ne possédant pas d’inverse sémantique) dont l’interprétation principale est soit conjonctive soit conditionnelle. Dans une troisième partie, nous montrons que la capacité à construire des modèles est corrélée à la capacité de la mémoire de travail, l’augmentation des capacités de cette mémoire avec l’âge expliquant l’ordre d’apparition des divers niveaux d’interprétation. Les résultats observés dans ces études nous conduisent à modifier et à spécifier la théorie standard. Nous proposons (1) que le raisonnement porte sur des variables, (2) qu’il existe une directionnalité des modèles de P vers Q, (3). L’effet de contenu serait dû à l’application de deux principes pragmatiques, (principes de quantité maximale et de complétude) qui auraient pour objet d’accroître la pertinence de l’énoncé, (4) les modèles issus de la prémisse majeure seraient des modèles hypothétiques
This thesis proposes a developmental model of conditional reasoning which refers to Mental Models theory (Johnson-Laird & Byrne, 1991 ; Johnson-Laird, Byrne & Schaeken, 1992). We show in a first part, a development of conditional reasoning during childhood and adolescence. This development evolves between a first level in which young subjets (i. E. , 8-9 years old)construct a one model representation (conjonctive-like interpretation), a second level (i. E. , 11-12 years old), in which they add a second model (biconditional interpretation) and a third model (conditional interpretation) at the end of adolescence (i. E. , 15 years old). We obtain these results in three experimental paradigms (falsification and production tasks and inferences production task). The second part of the thesis reveals that comprehension of conditional statements is influenced by semantic contents of propositions. The statements using binary propositions (i. E. , without sematic contrary) in which principal patterns of interpretation are conjonctive or conditional. In a third part, we suggest that the capacity explains the order of appareance of different levels of interpretation. The results observed in these experiments lead us to modify and specify standard theory. We propose (1) that reasoning relies on variables, (2) that exists a directionality of models from P to Q. (3) Content effect would be due to two pragmatic principles (the principle of maximal quantity and the principle of completeness) whose effect is to increase pertinence of statement, (4) models construct on the base of major premise would be hypothetical

Vai alla bibliografia