Дисертації з теми "Raisonnement et représentation des connaissances"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Raisonnement et représentation des connaissances.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Raisonnement et représentation des connaissances".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Zanuttini, Bruno. "Acquisition de connaissances et raisonnement en logique propositionnelle." Phd thesis, Université de Caen, 2003. http://tel.archives-ouvertes.fr/tel-00995247.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions l'algorithmique de deux problèmes centraux d'Intelligence Artificielle, pour des bases de connaissances représentées, notamment, par des formules propositionnelles de Horn, bijonctives, Horn-renommables ou affines. Nous traitons tout d'abord l'acquisition de connaissances à partir d'exemples : nous donnons notamment un algorithme efficace et général pour l'acquisition exacte, complétons l'état de l'art pour l'approximation et donnons un algorithme pour le PAC-apprentissage des formules affines. Nous étudions ensuite des problèmes de raisonnement : nous donnons un algorithme général pour l'abduction, qui nous permet d'exhiber de nouvelles classes polynomiales, et posons de premières pierres pour l'étude de ce processus lorsque la base de connaissances est approximative. L'étude des formules affines pour la représentation de connaissances n'avait jamais été réellement menée. Les résultats présentés dans ce mémoire montrent qu'elles possèdent de nombreuses bonnes propriétés.
2

Mengin, Jérôme. "Raisonnement par défaut : résolutions de conflits et priorités." Paris 11, 1994. http://www.theses.fr/1994PA112101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'un des thèmes actuels de recherche en intelligence artificielle concerne la formalisation de certains types de raisonnement, en vue d'une automatisation. Cette thèse s'intéresse au raisonnement dit par défaut, à partir de connaissances incomplètes. Après une revue de plusieurs travaux sur ce sujet, la thèse présente un formalisme permettant de tenir compte, de manière intuitive, de préférence parmi les connaissances à inférer par défaut. Ce formalisme est basé sur la notion de résolution de conflits. L'intérêt de ce formalisme réside dans sa souplesse, qui permet de l'appliquer dans plusieurs domaines. Il permet en particulier de capturer des concepts utilisés dans de nombreuses autres logiques formalisant le raisonnement par défaut, et de combiner ces concepts entre eux ainsi que de les utiliser en présence de préférence. Dans la dernière partie, la thèse présente un algorithme permettant d'automatiser la forme de raisonnement capturé par ce formalisme. Cet algorithme est une adaptation d'un algorithme de résolution de conflits utilisé dans le domaine du diagnostic. Enfin, la thèse présente un algorithme permettant de calculer les inconsistances en logique des défauts, ce qui permet alors d'implémenter un démonstrateur de théorèmes pour cette logique
3

Sarmiento, Lozano Camilo. "Formalisation des raisonnements éthiques : modélisation des processus en éthique et modélisation, représentation et automatisation du raisonnement causal." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le domaine de l'éthique computationnelle dont le but est de formaliser le raisonnement éthique. Autrement dit, ce travail fait partie du domaine qui cherche à reproduire notre capacité en tant qu'êtres rationnels à évaluer moralement une action. Deux objectifs sont recherchés au travers de la formalisation de ce raisonnement : mieux le comprendre et l'intégrer dans des systèmes informatiques de sorte à assurer que les décisions prises soient conformes à des principes moraux choisis.Cette thèse contribue à ce domaine de deux façons. Un premier groupe de contributions est lié à la proposition d'un cadre commun permettant de formaliser de façon fidèle les principes moraux les plus courants dans la philosophie occidentale. Pour reprendre les termes du titre, ce premier groupe de contributions peut être résumé en quelques mots comme la « modélisation des processus en éthique ». Le deuxième groupe de contributions est lié à la proposition d'une formalisation du raisonnement causal. En plus de permettre une meilleure compréhension de ce raisonnement, cette formalisation rend possible de l'intégrer dans des systèmes informatiques de sorte à pouvoir établir des relations causales complexes. Cette capacité intervient dans la formalisation d'un grand nombre de principes moraux. Ayant pour objectif que notre proposition puisse être utilisée dans la formalisation de tous ces principes moraux, nous l'avons conçue de sorte à ce qu'elle satisfasse un certain nombre de conditions. Tout d'abord, notre formalisation repose sur un formalisme permettant de rendre explicites la plupart des subtilités des problèmes, aussi bien pour le raisonnement causal que le raisonnement éthique. Ensuite, la définition de causalité intégrée dans notre formalisme est dépourvue de toute confusion avec la notion de responsabilité. Sans cela, elle ne pourrait pas être commune à la formalisation de tous les principes moraux. Finalement, notre proposition est en capacité de traiter tous les cas causaux, dont les plus complexes. Pour reprendre les termes du titre, ce deuxième groupe de contributions peut être décrit comme la « modélisation, représentation et automatisation du raisonnement causal ». Les contributions principales de cette thèse appartiennent à ce deuxième groupe
This thesis is in the field of computational ethics, which aims to formalise ethical reasoning. In other words, this work is part of the field that seeks to emulate our capacity as rational beings to morally evaluate an action. The formalisation of this reasoning has two objectives: to better understand it and to integrate it into computer systems to ensure that decisions made comply with chosen moral principles.This thesis makes a contribution to the field in two ways. Firstly, it proposes a common framework for formalising faithfully the most common moral principles in Western philosophy. This first contribution can be summarised as 'modelling ethical processes'. The second set of contributions pertains to the proposal for formalising causal reasoning. This formalisation not only enhances our comprehension of this reasoning but also enables its integration into computer systems, facilitating the establishment of complex causal relationships. This capability is crucial for formalising a wide range of moral principles. To ensure that our proposal can formalise all these moral principles, we have designed it to satisfy a number of conditions. Firstly, our formalisation is based on a formalism that explicitly addresses the subtleties of problems related to both causal and ethical reasoning. Secondly, our formalism's definition of causality free of any confusion with the notion of responsibility. Otherwise, it would not be common to formalise all moral principles. Finally, our proposal can handle all causal cases, including the most complex. The second group of contributions focuses on 'modelling, representing and automating causal reasoning'. The main contributions of this thesis belong to this second group
4

Carbonneill, Boris. "Vers un système de représentation de connaissances et de raisonnement fondé sur les graphes conceptuels." Montpellier 2, 1996. http://www.theses.fr/1996MON20015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail presente fait partie d'un projet de developpement d'un systeme de representation de connaissances et de raisonnement fonde sur les graphes conceptuels. Apres un tour d'horizon des systemes utilisant les graphes conceptuels, nous presentons une formalisation du modele utilise, celui des graphes conceptuels simples. A partir d'une base de connaissances et d'une question representees respectivement sous forme d'un ensemble de graphes conceptuels et d'un graphe conceptuel, nous definissons tout d'abord la notion de reponse exacte, et proposons un algorithme de recherche, guide par la question, correct et complet. Par la suite, la notion de reponse exacte et l'algorithme de recherche correspondant sont etendus afin de prendre en compte le mecanisme de definition de types de concepts offert par le modele des graphes conceptuels. Deux autres volets de ce travail concernent le developpement d'heuristiques de raisonnement. Nous presentons dans un premier temps des heuristiques de recherche de reponse exacte ; nous proposons ensuite des heuristiques destinees a palier l'absence de reponse exacte, en produisant des reponses pertinentes. Ces deux mecanismes sont illustres dans le cadre de l'implementation du systeme rock. Notre derniere contribution concerne une extension du modele initial, les graphes conceptuels emboites, pour lesquels nous formalisons la notion de reponse exacte, et proposons les algorithmes de recherche adaptes
5

Inghilterra, Carlo. "Apports de la représentation orientée objet et du raisonnement analogique dans la conception d'un tutoriel de géomérie." Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX30069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Lugardon, Valérie. "Sur les fondements de la notion de dépendance et de son application à la théorie de l'action." Toulouse 3, 1996. http://www.theses.fr/1996TOU30009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dépendance est une notion générale de plus en plus utilisée en informatique. Cette thèse montre comment tirer partie de cette notion à deux niveaux: au niveau de la logique, en particulier pour redéfinir la sémantique de l'implication, et au niveau de la représentation des connaissances, dans le raisonnement sur les actions. Dans la première partie, différentes logiques sont définies. Il s'agit des logiques Dt, DDt, Eqt et Ret regroupées sous le nom de logiques de la dépendance. Elles diffèrent par les conditions exigées sur le symbole logique de l'implication. Ces conditions sont formulées en référence à une fonction thème, t, associant un contenu référentiel aux formules atomiques. En plus de la sémantique de ces logiques, cette étude comprend des systèmes de séquents de Gentzen les caractérisant, une comparaison avec les logiques d'Epstein, des traductions de la logique classique dans ces différentes logiques et des extensions possibles au calcul des prédicats. La deuxième partie s'intéresse au problème de formaliser les effets des actions. L'approche proposée consiste en une extension du calcul des situations qui prend en compte une notion de dépendance entre actions et atomes du langage. La donnée explicite de la relation de dépendance permet de décrire économiquement l'inertie des systèmes et de tenir compte des effets indirects des actions. En outre des résultats spécifiques qu'elle apporte, cette étude met en évidence l'importance de la notion de dépendance.
7

Gacôgne, Louis. "Contribution à la représentation des connaissances floues et mise en oeuvre d'un système de raisonnement approché." Paris 7, 1990. http://www.theses.fr/1990PA077136.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En suivant la voie ouverte par l. A. Zadeh, on examine les notions de valeurs floues, de prédicats vagues et de déduction approchée, dans le but de donner les bases d'un système modélisant le raisonnement d'un expert humain. Une maquette est construite dans le domaine du choix des roulements à billes
8

Guizol, Léa. "Partitioning semantics for entity resolution and link repairs in bibliographic knowledge bases." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20188/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons une approche qualitative pour la résolution d'entités et la réparation de liens dans une base de connaissances bibliographiques. Notre question de recherche est : "Comment détecter et réparer les liens erronés dans une base de connaissances bibliographiques en utilisant des méthodes qualitatives ?". L'approche proposée se décompose en deux grandes parties. La première contribution est une sémantique de partitionnement utilisant des critères symboliques et servant à détecter les liens erronés. La seconde contribution est un algorithme réparant les liens erronés. Nous avons implémenté notre approche et proposé une évaluation qualitative et quantitative pour la sémantique de partitionnement ainsi que prouvé les propriétés des algorithmes utilisés pour la réparation de liens
We propose a qualitative entity resolution approach to repair links in a bibliographicknowledge base. Our research question is: "How to detect and repair erroneouslinks in a bibliographic knowledge base using qualitative methods?" Theproposed approach is decomposed into two major parts. The first contributionconsists in a partitioning semantics using symbolic criteria used in order to detecterroneous links. The second one consists in a repair algorithm restoring link quality.We implemented our approach and proposed qualitative and quantitative evaluationfor the partitioning semantics as well as proving certain properties for the repairalgorithms
9

Ramon, Sébastien. "Méthodes permettant la prédominance de connaissances subsumées." Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0405/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans le domaine de l’Intelligence Artificielle symbolique. Elle y traite d’une question fondamentale liée à la représentation des connaissances et des raisonnements à base de logique. Plus précisément, elle s’intéresse au problème pouvant se produire lors de l’insertion dans un ensemble de connaissances d’une information qui peut déjà en être déduite. Comment faire en sorte que cette nouvelle information vienne préempter les informations qui permettent son inférence ? Supposons par exemple qu’un ensemble de prémisses contienne l’information “Si l’interrupteur est enclenché alors la pièce est éclairée”. Il est naturel d’espérer que l’ajout d’une règle additionnelle, en un sens plus précise que la première, et qui exprime que “Si l’interrupteur est enclenché et si l’ampoule n’est pas cassée alors la pièce est éclairée”, puisse venir la préempter. En effet, il ne doit plus être suffisant de savoir que “L’interrupteur soit enclenché” pour en conclure que “La pièce est éclairée” : il faut aussi que “L’ampoule ne soit pas cassée”. Remarquons que la seconde règle est consistante avec la première et que les cadres de logiques non monotones et de révision de croyances ou de mise à jour ne traitent pas a priori de ce problème. Nous adressons d’abord cette question dans le cadre de la logique classique et ensuite dans un cadre plus général de représentation à base de logiques non monotones, et particulièrement de celles permettant la représentation de règles avec exceptions reposant sur des tests de consistance
This thesis is in line with the symbolic Artificial Intelligence domain. It deals with a fondamental issue of the logic-based knowledge and reasoning representation. Most particulary, this thesis is interested in the issue occurring when a piece of information is added to a knowledge set which already entails it. How to make sure that this new piece of information prevails the ones that allow its inference? Suppose for instance that a premisses set contains the piece of information “If the switch is on then the room is lighted”. It is natural to expect that adding an additional rule, in a way more precise than the first one, and which assert that “If the switch is on and if the lamp bulb is not broken then the room is lighted”, could prevail it. Indeed, it will not be sufficient to know that “The switch is on” to conclude that “The room is lighted”: it is now necessary that “The lamp bulb is not broken”. Let us note that the second rule is consistent with the first one and that the non monotonic logics and beliefs revision or update frameworks do not handle this issue in principle. First of all, we adress this issue in the classical logic framework, and secondly in a most general framework of non monotonic logic based representation, and particulary the ones that allow the representation of rules with exceptions subject of consistency test
10

Cerf, Marianne. "Essai d'analyse psychologique des connaissances techniques et pratiques des agriculteurs : application au raisonnement de l'implantation des betteraves sucrières." Paris 8, 1994. http://www.theses.fr/1993PA080839.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette these est d'etudier les connaissances des agriculteurs et la facon dont elles sont mobilisees lors de la realisation d'une tache comme la mise en place des betteraves sucrieres, en focntion des contextes de realisation de cette tache. Apres une presentation rapide des motivations de cette recherche, et des caracteristiques cognitives de l'activite agricole, une synthese bibliographique situe l'activite de conduite d'especes vegetales dans le cadre des activites de controle de processus continus et de diagnostic en vue d'agir sur ces processus. Sont ensuite presentes les exploitations agricoles et les agriculteurs retenus pour l'etude, ainsi que les methodes utilisees. Ces dernieres sont concues de facon a identifier les similitudes et les differences entre les agriculteurs, du point de vue de leurs connaissances et de leurs raisonnements dans le cadre de la tache etudiee. Ces methodes doivent en outre permettre de tester la plausibilite d'une organisation des connaissances sous la forme de reseaux semantiques de l'action. Sont associees, des methodes experimentales s'appuyant sur l'utilisation de materiel photo, et des methodes d'observation du travail lors de la realisation de cette tache. L'analyse debouche sur l'identification de noyaux de connaissances communs aux differents agriculteurs enquetes, ces noyaux portant sur la representation du fonctionnement du champ cultive pour la tache etudiee. Cette analyse permet egalement de proposer un modele de mobilisation des procedures connues par les agriculteurs, que ces derniers soient en situation experimentale ou en situation reelle. Enfin, elle fournit des pistes pour adapter un modele de representation des connaissances de type "reseaux semantiques de l'action" afin de l'appliquer a des situations dynamiques
The aim of this thesis is to study farmers' knowledge and the way such a knowledge is used while performing sugar beet setting up in various working contexts. After a short introduction which sumarizes the motives of this research, and a brief characterization of faarmers' cognitive activities, a bibliographic synthesis assigns a place to crop management within continuous process control activities and more specifically within diagnosis activities. Then, the farms and farmers that been selected for the study as well as the methods that have been used are described. These ones have been designed to identify similarities and differences between the knowledge and reasoning of individuals in relation to the studied task. Besides, those methods have been designed to test the plausibility of representing farmers' knowledge as semantics of action networks. Experimental studies have been combined with direct observations of working farmers. The experimental material was mostly soil pictures taken at different moments of the task performing. This analysis results in the identification of cores of common knowledge shared by all the farmers of the sample. That common knowledge concerns the representation of the functioning of the cropfield. This analysis also results in proposals for describing the way farmers choose between known procedures in experimental conditions as well as in working ones. Finally, our analysis results in directions to adapt the semantics of action networks formalism in order to apply such a knowledge representation to the control of dynamic process
11

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
12

Tolba, Hany. "Contribution à l'étude du raisonnement temporel : intégration des informations qualitatives et quantitatives et propagation de contraintes." Nancy 1, 1992. http://www.theses.fr/1992NAN10394.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons choisi un nouveau modèle de représentation des informations temporelles fondé sur la logique réifiée (l'algèbre d'intervalles). Nous avons étendu cette algèbre pour qu'elle intègre aussi bien les informations numériques que les informations symboliques. Cette représentation se base sur un domaine discret du temps ainsi que sur la notion de multi-granularité pour représenter les différentes granularités du temps. Les différentes tâches de raisonnement à effectuer par un gestionnaire de graphes temporels (TMM), ainsi que la nature hétérogène des contraintes temporelles nous ont amené à implanter une nouvelle méthode de propagation de contraintes temporelles. Elle consiste à séparer la propagation de ces deux types de contraintes et à échanger leurs résultats via un module de communication. Notre choix s'est porté sur l'algorithme optimal GAC4 que nous avons étendu pour prendre en compte le raisonnement temporel. Cependant, GAC4 souffre d'inconvénients tels que la consommation importante d'espace mémoire pendant le processus d'énumération. Nous avons implanté l'algorithme ANGEL pour vérifier la cohérence d'arcs. C'est un algorithme dynamique capable de faire face à un monde évolutif. Grâce à son aspect fonctionnel, un compromis entre l'espace mémoire, la vitesse d'exécution et la complexité a été trouvé. Un outil de raisonnement, TemPro, a été construit à partir de ces principes. Nous avons aussi défini un langage afin de gérer et d'interroger le graphe temporel. TemPro fonctionne en tant que boîte noire et ce langage sert d'interface entre l'outil et un moteur d'inférences. TemPro peut être utilisé pour des applications telles que l'ordonnancement de tâches, l'allocation de ressources, etc.
13

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2337/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires
Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data
14

Forget, Lionel. "X-logiques : théorèmes de représentation pour les logiques préférentielles et la logique des défauts." Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se situe dans le cadre de l'intelligence artificielle et plus particulièrement du raisonnement incertain et révisable. Il existe deux grandes classes de formalismes permettant de modéliser la connaissance. Ceux qui possèdent la propriété de monotonie et dans lesquels une formule déduite le sera toujours lors de l'ajout d'information, et ceux qui sont non-monotones et qui permettent un raisonnement révisable sur des informations incomplètes. Nous nous intéressons à un nouveau formalisme non-monotone, les X-logiques, définies à l'aide d'une logique classique et d'un ensemble de formules de cette logique. Nous montrons qu'il est possible de capturer différents formalismes non monotones, à l'aide des x-logiques, c'est-à-dire que pour un formalisme non monotone donné, il est possible de définir une X-logique qui infère les mêmes formules que celles inférées par le formalisme non monotone considéré. Une fois montré le caractère fédérateur des X-logiques, il devient alors possible d'étudier les formalismes non monotones en commençant par les traduire en une X-logique. L'intérêt de cette approche est qu'il devient alors envisageable d'étudier les logiques non monotones en utilisant les outils de démonstration automatique des logiques classiques. Cette approche est donc résolument orientée procédure de preuve. Nous montrons deux théorèmes de représentation sur les X-logiques dans le cas fini. Le premier, que nous appliquons au cas particulier de la circonscription, concerne les logiques préférentielles (définies sur une relation d'ordre entre les modèles). Le second porte sur la logique des défauts.
15

Barloy, Yann. "Conception et développement d'outils dédiés aux systèmes réflexifs : application à la reconnaissance de manoeuvres automobiles." Troyes, 2008. http://www.theses.fr/2008TROY0023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de ma thèse intitulée : « Conception et développement d’outils dédiés aux systèmes réflexifs. Application à la reconnaissance de manœuvres automobiles. » j’ai développé un moteur d’inférences, nommé Reflexive System Inference Engine (RSIE), basé sur une méthode hybride entre les réseaux RETE et la méthode des filtres afin d’allier performance et souplesse d’application. De par sa structure, RSIE permet de créer des systèmes interagissant non seulement avec leur environnement mais également avec leurs propres connaissances permettant à ces derniers de s’auto-modifier en fonction des problèmes à résoudre, on parle alors de systèmes réflexifs. J’ai appliqué ce moteur au projet CASSICE (Caractérisation Symbolique des SItuations de ConduitE) et plus particulièrement au système à base de règles IDRES. Les règles de IDRES ont été transposées dans le formalisme de RSIE et l’ajout d’une métarègle de gestion des connaissances à mettre en œuvre à un instant t ont permis d’améliorer les performances d’IDRES en terme de rapidité d’exécution ainsi qu’en terme d’occupation de ressources informatiques. De par sa nature, RSIE peut s’appliquer à d’autres domaines et cela s’inscrit dans mes perspectives
During my thesis entitled "Design and development of tools dedicated to reflexive systems. Application to car maneuvers recognition. "I developed an inference engine, called Reflexive System Inference Engine (RSIE), based on a hybrid between RETE networks filter method to combine performance and flexibility of application. RSIE structure allows it to create systems which not only interact with their environment but also with their own knowledge allowing them to self-edit according to solve problems, known as reflexive systems. I applied this engine to CASSICE project (Caractérisation Symbolique des SItuations de ConduitE) and more particularly to the rule-based system IDRES. IDRES rules have been translated into RSIE formalism and the adding a of knowledge management metarules to implement a time t have improved IDRES performances in terms of speed of execution and in terms of resources occupation. By its nature, RSIE can be applied to other areas and this is part of my perspectives
16

Simonet, Geneviève. "Héritage non monotone à base de chemins et de graphes partiels." Montpellier 2, 1994. http://www.theses.fr/1994MON20151.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Abchiche, Nadia. "Elaboration, implémentation et validation d'une approche distribuée pour l'intégration de modèles de raisonnement hétérogènes : application au diagnostic de pannes électriques." Paris 8, 1999. http://www.theses.fr/1999PA081527.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these presente l'elaboration d'une approche distribuee pour l'integration de systemes manipulant chacun, un modele de raisonnement particulier. Chaque modele de raisonnement est constitue d'un type de connaissances specifique et d'un ensemble de moyens appropries pour l'exploitation de ces connaissances, ce qui lui conferent un ensemble de caracteristiques lors de la resolution d'un probleme. Notre modele de cooperation mocah (modelisation de la cooperation entre agents heterogenes) est concu pour permettre l'integration de plusieurs modeles de raisonnement dans un meme systeme, en vue de combiner les avantages de plusieurs modeles de raisonnement tout en minimisant leurs inconvenients. Mocah est base sur l'identification de connaissances de cooperation (reseaux contractuels, negociation) que nous avons modelise avec la methodologie commet. Cette methodologie est appliquee aussi bien aux connaissances de cooperation qu'aux connaissances du domaine. Elle consiste a decomposer ces deux types de connaissances selon trois dimensions : les taches, les methodes et le modele du domaine. A partir de mocah, nous avons concu une architecture d'agent cooperatif implementee dans un environnement de programmation multi-agents. Chaque agent represente un modele de raisonnement particulier, dote d'une architecture capable de manipuler avec un meme algorithme l'ensemble des connaissances d'un agent. A cause des limites individuelles des modeles de raisonnement, aucun agent n'est capable de maitriser un probleme dans sa totalite. Cette maitrise concerne aussi bien le nombre de problemes resolus que la qualite meme d'une solution. Les agents communiquent entre eux grace a une representation consensuelle. Ils cooperent et creent ainsi, une synergie entre les modeles de raisonnement, ce qui permet alors d'augmenter le nombre de problemes resolus et d'ameliorer les solutions obtenues. Notre approche a ete experimentee pour le diagnostic de pannes de circuits electriques
This work describes the elaboration of a distributed approach to integrate several heterogeneous reasoning models using multi-agents paradigms. Each reasoning model represents particular knowledge with appropriate methods. Since none of the reasonig models is able to solve a whole problem with acceptable performances, we have proposed a cooperation model, mocah (modellig cooperation between heterogeneous agents). The starting point is to model the cooperation reasoning at the knowledge level with a methodology usefull for domain expertise commet. In fact, we extracted cooperation expertise from works done in distributed artificial intelligence (contract net protocoles to allocate tasks, solving conflicts using negociation mechanisms). The most important point to develop is an agent's architecture to support the two levels of reasoning: cooperation reasoning and domain reasoning. These two levels are modeled using the above mentioned methodology which consist in decomposing knowledge according to three dimensions: the tasks, the methods and the domain model. Our architecture is sufficiently flexible to allow increasing the variety and the number of agents, deal with existing cooperation expertise and easily integrate new ones, and finally, be domain independent. A consensus representation is developed to make the agents communicating despite heterogeneous local representations. The agents reason not only on their own domain problems, but also on their capabilities and other agents' capabilities so they can cooperate to improve the problem solving process and increase the variety of the problems solved by the whole system. Our approach has been applied to diagnosis of faults in electrical functions of cars
18

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui permet une représentation graphique des connaissances. La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (économie ou tourisme) puis ajoutées à la base. Elles sont ensuite fournies au service de validation et d'enrichissement qui les complète de nouvelles connaissances et décide de leur validité
19

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00387017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
20

Sabouret, Nicolas. "Etude de modèles de représentation, de requêtes et de raisonnement sur le fonctionnement des composants actifs pour l'interaction homme-machine." Paris 11, 2002. http://www.theses.fr/2002PA112290.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons dans cette thèse le problème de la construction de réponses à des requêtes formelles modélisant des questions de bon sens posées par les utilisateurs ordinaires concernant le fonctionnement d'un composant actif. Les recherches actuelles dans la communauté du raisonnement sur les actions proposent de travailler sur une modélisation du système en logique pour répondre à des requêtes bien formées et ne prennent pas en compte l'existence de "notions de bon sens" utilisées par les utilisateurs ordinaires dans la formulation des questions. De plus, nous voulons pouvoir travailler directement sur le code du composant. Nous présentons tout d'abord un langage de programmation pour les composants actifs qui permet d'avoir accès en cours d'exécution à une description des actions et des données du composant. Nous présentons ensuite un langage de requêtes qui permet de modéliser une large classe de questions sur le fonctionnement issues de l'interaction en langue naturelle. Nous proposons des algorithmes de réponse qui permettent de traiter ces requêtes ainsi qu'un cadre formel pour prendre en compte des notions de bon sens dans les requêtes. Nous étudions ensuite le problème de la construction de réponses portant sur l'exécution passée du composant. Nous montrons qu'il est nécessaire d'utiliser une approche dynamique pour extraire des régularités dans les actions du composant et mettre en évidence des comportements, individuels dans le cas d'une interaction avec l'utilisateur ou collectifs dans le cas d'une interaction dans un système multi-agents. Nous montrons que nos travaux peuvent s'intégrer dans le cadre du web sémantique pour définir des composants actifs sous la forme de pages web dynamiques munies de capacité de raisonnement et d'interaction avec les utilisateurs ordinaires. Nous présentons enfin l'implémentation de notre modèle réalisée dans le projet InterViews et nous donnons des exemples de programmation et d'exécution de ces composants actifs
In this PhD thesis, we deal with a problem that is emerging in human-computer interaction. Our aim is to answer formal requests modelling common-sense questions that a human user can ask about an active software component's functioning. Current research in reasoning about actions propose to work with a logic model of the system and to answer only to well formed requests which cannot take into account common-sense notions that are used by human users in their questions about actions. Moreover, we want to be able to work directly with the component's code to answer such questions. We first present a programming language and a runtime model for active components that allows us to have access, at any time of the execution, to the description of the component's actions and physical status. We then present a request model that can be used to represent a wide class of questions about actions. We propose answering algorithms for use on these formal requests. We show that it is possible to take into account common-sense notions in these requests and we propose a formal frame for processing such "common-sense requests" about actions. Then, we study the issue of answering requests about the component's past execution. We show that using a dynamic approach is both possible and required, so as to extract regularities from the component's runtime. We show how this exhibits component behaviors that are required for the production of an explanation. We present an extension of this approach for extracting collective behaviors in multi-agent systems. We show that our work can be used within the semantic web in order to define active components as dynamic page web, provided with reasoning capabilities and capable of interacting with ordinary users in need for help. Finally, we present the implementation of our model within the InterViews project. We give both programming and execution examples of active components in this implementation
21

Kauffmann, Hervé. "Multilog : utilisation de mondes en programmation logique pour représenter et manipuler des connaissances." Paris 6, 1986. http://www.theses.fr/1986PA066079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Multilog est un langage de programmation logique. Ses principales caractéristiques sont les suivantes : les connaissances sont réparties dans différents mondes; chaque monde a son propre mécanisme d'inférence, qui indique quelles inférences peuvent être faites à partir des clauses de la base de connaissances, et comment les faire; trois relations d'héritage permettent de relier les différents mondes: une relation d'héritage total, une relation d'héritage par défaut et une relation d'héritage avec exceptions. Les principales applications de multilog sont : le raisonnement hypothétique, la représentation de différents points de vue, le raisonnement non monotone, le raisonnement distribué.
22

Chaoued, Nouha. "Représentation et traitement des connaissances en logique multivalente : cas d'une répartition non uniforme des degrés de vérité." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS048/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la plupart des activités quotidiennes, l’Homme a tendance à utiliser des connaissances imparfaites. L’imperfection se rapporte à trois volets : l’imprécision, l’incertitude et l’incomplétude. Nous thèse concerne les connaissances imprécises. En particulier, nous nous intéressons au traitement qualitatif de l’information imprécise dans les systèmes à base de connaissances. Diverses approches ont été proposées pour traiter les connaissances imprécises, en particulier, la logique floue et la logique multivalente. Les théories des ensembles flous et des multi-ensembles sont un moyen très approprié pour la représentation et la modélisation de l’imprécision.Notre travail s’inscrit dans le contexte de la logique multivalente. Celle-ci permet de représenter symboliquement des connaissances imprécises en utilisant des expressions adverbiales ordonnées du langage naturel. L’utilisation de ces degrés symboliques est plus compréhensible par les experts. Ce type de représentation de données est indépendant du type de leurs domaines de discours. Ainsi, la manipulation des connaissances abstraites ou faisant référence à des échelles numériques se fait de la même manière.Dans la littérature, le traitement de l’information imprécise repose sur une hypothèse implicite de la répartition uniforme des degrés de vérité sur une échelle de 0 à 1. Néanmoins, dans certains cas, un sous-domaine de cette échelle peut être plus informatif et peut inclure plus de termes. Dans ce cas, l’information est définie par des termes déséquilibrés, c’est-à-dire qui ne sont pas uniformément répartis et/ou symétriques par rapport à un terme milieu. Par exemple, pour l’évaluation des apprenants, il est possible de considérer un seul terme négatif F correspondant à l’échec. Quant à la réussite, elle est décrite par plusieurs valeurs de mention, i.e. D, C, B et A. Ainsi, si le terme D est le seuil de la réussite, il est considéré comme le terme milieu avec un seul terme à sa gauche et trois à sa droite. Il s’agit alors d’un ensemble non uniforme.Dans ce travail, nous nous concentrons sur l'extension de la logique multivalente au cas des ensembles non uniformes. En s'appuyant sur notre étude de l'art, nous proposons de nouvelles approches pour représenter et traiter ces ensembles de termes. Tout d'abord, nous introduisons des algorithmes qui permettent de représenter des termes non uniformes à l'aide de termes uniformes et inversement. Ensuite, nous décrivons une méthode pour utiliser des modificateurs linguistiques initialement définis pour les termes uniformes avec des ensembles de termes non uniformes. Par la suite, nous présentons une approche de raisonnement basée sur le modèle du Modus Ponens Généralisé à l'aide des Modificateurs Symboliques Généralisés. Les modèles proposés sont mis en œuvre dans un nouveau système de décision fondé sur des règles pour la reconnaissance de l'odeur de camphre. Nous développons également un outil pour le diagnostic de l'autisme infantile. Les degrés de sévérité de l'atteinte par ce trouble autistique sont représentés par l'échelle d'évaluation de l'autisme infantile (CARS). Il s'agit d'une échelle non uniforme
In most daily activities, humans use imprecise information derived from appreciation instead of exact measurements to make decisions. Various approaches were proposed to deal with imperfect knowledge, in particular, fuzzy logic and multi-valued logic. In this work, we treat the particular case of imprecise knowledge.Taking into account imprecise knowledge by computer systems is based on their representation by means of linguistic variables. Their values form a set of words expressing the different nuances of the treated information. For example, to judge the beauty of the Mona Lisa or the smell of a flower, it is not possible to give an exact value but an appreciation is given by a term like "beautiful" or "floral".In the literature, dealing with imprecise information relies on an implicit assumption: the distribution of terms is uniform on a scale ranging from 0 to 1. Nevertheless, in some cases, a sub-domain of this scale may be more informative and may include more terms. In this case, knowledge are represented by means of an unbalanced terms set, that is, not uniformly nor symmetrically distributed.We have noticed, in the literature, that in the context of fuzzy logic many researchers have dealt with these term sets. However, it is not the case for multi-valued logic. Thereby, in our work, we aim to establish a methodology to represent and manage this kind of data in the context of multi-valued logic. Two aspects are treated. The first one concerns the representation of terms within an unbalanced multi-set. The second deals with the treatment of such kind of imprecise knowledge, i.e. with symbolic modifiers and in reasoning process.In this work, we focus on unbalanced sets in the context of multi-valued logic. Basing on our study of art, we propose new approaches to represent and treat such term sets. First of all, we introduce algorithms that allow representing unbalanced terms within uniform ones and the inverse way. Then, we describe a method to use linguistic modifiers within unbalanced multi-sets. Afterward, we present a reasoning approach based on the Generalized Modus Ponens model using Generalized Symbolic Modifiers. The proposed models are implemented in a novel rule-based decision system for the camphor odor recognition within unbalanced multi-set. We also develop a tool for child autism diagnosis by means of unbalanced severity degrees of the Childhood Autism Rating Scale (CARS)
23

Bourget, Annick. "De la formation préclinique à la formation clinique : explicitation du développement du raisonnement clinique chez des étudiantes et des étudiants en médecine ayant suivi un programme basé sur l'apprentissage par problèmes." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6383.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de l'étude est d'explorer le développement du raisonnement clinique selon une perspective multidimensionnelle et longitudinale en considérant le modèle multidimensionnel du raisonnement clinique et le concept de compétence. Les questions de recherche sont : (1) quelles dimensions du raisonnement clinique se manifestent chez l'étudiant? (2) quelles étapes de développement est-il possible de repérer? Il s'agit d'une étude de cas multiples explorant le développement de cinq dimensions : "Représentation", "Processus", "Métacognition", "Connaissances" et "Structures". Quatre étudiants furent rencontrés à quatre moments entre la fin de leur formation préclinique et le début de leur formation clinique (12 mois). Chaque étudiant réalisait (1) une entrevue médicale avec un patient standardisé; (2) un entretien d'explicitation à partir d'une vidéo; (3) une carte cognitive et (4) une entrevue semi-dirigée. Des analyses intracas puis intercas furent réalisées suivant les étapes de condensation, de présentation et d'élaboration. L'analyse permet de conclure que les cinq dimensions sont présentes chez les étudiants dès la fin de leur formation préclinique et qu'il existe une interdépendance entre ces dimensions. De plus, cinq transformations témoignent du développement du raisonnement clinique chez l'étudiant : (1) automatisation et adaptation des connaissances procédurales de la collecte d'informations; (2) déplacement de la cible de la régulation; (3) passage d'une recherche de cohérence entre les signes et les symptômes à l'évaluation des hypothèses; (4) passage du recours aux connaissances biomédicales à l'utilisation marquée des connaissances cliniques et (5) émergence de scripts. Ces transformations témoignent de deux grandes étapes de développement : (1) intégration de la démarche de la collecte d'informations et (2) passage d'une démarche de compréhension à une démarche de catégorisation. S'inscrivant dans l'interrelation recherche-formation-pratique, les conclusions et la méthodologie de l'étude invitent à poursuivre l'exploration du développement du raisonnement clinique chez l'étudiant en médecine ainsi que dans d'autres domaines de la santé.
24

Pierre, Denis. "Formulation et maintenance d'une théorie hypothétique par un agent apprenant." Montpellier 2, 1997. http://www.theses.fr/1997MON20082.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous interessons a l'apprentissage a partir d'exemples et a la resolution de probleme dans un univers evolutif represente par une base de connaissances incomplete. Nous formalisons un cadre de representation de connaissances susceptible d'etre elabore et critique par des humains comme par des machines. Cette representation des connaissances est appelee theorie semi-empirique car cette forme de theorie n'est pas completement axiomatique. Nous donnons les elements d'une formalisation d'un systeme appele schema mental, modelisant l'augmentation de la connaissance durant le processus d'apprentissage, a partir des definitions generales d'un langage et d'un modele de gestion de croyances. Enfin, nous gerons l'aspect dynamique du processus d'acquisition de connaissances a travers des mecanismes de raisonnement, la production de preuves, et l'emergence d'un noyau stable de connaissances. Ce formalisme est applique a l'etude de l'evolution de zones geographiques d'apres plusieurs releves temporels.
25

Popov, Valentin. "Contribution à la représentation et à la résolution du problème de conception déclarative de scènes 3D en synthèse d'image." Poitiers, 2000. http://www.theses.fr/2000POIT2306.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these se place a la frontiere de la conception de l'univers physique et de l'univers numerique dans un cadre declaratif. C'est une demarche qui vise la construction des scenes (configurations d'objets 3d) a partir de la donnee qualitative, incomplete et incertaine d'un ensemble de proprietes. Nous proposons d'abord la methode de conception hi-commode a base de connaissance, sur le produit et le processus de conception. Par conceptualisation sous forme d'un modele neutre dit virtuel, elle rend le modele geometrique du produit independant des moyens graphiques. A ce titre, hi-commode integre des techniques de conceptualisation pour la representation et le raisonnement classificatoire multi-points de vue, la propagation des contraintes spatiales qualitatives et causales probabilistes et d'operationalisation pour l'interpretation du modele virtuel, la construction et la manipulation de structures geometriques. Les activites de raisonnement sont definies dans une phase de resolution, que nous introduisons dans la modelisation declarative. La tache de cette phase est de completer la description initiale floue et incomplete par des techniques classificatoires de parcours de taxinomies des connaissances anterieures et de propagation de contraintes. La methode hi-commode s'appuie sur un modele conceptuel qui definit le type et la structuration des concepts de la description des modeles geometriques et des concepts d'apparence des scenes a la base des meta-modeles fonctionnel, structurel, geometrique, spatial, de l'aspect realiste et causale probabiliste. Chaque meta-modele est decompose en taxinomies locales differentes, associees aux points de vue concepteur. Le processus de resolution propose, conduit soit vers la construction d'une famille des scenes quand la description est coherente, soit vers la detection des incoherences de la description et la proposition de solutions par defaut pertinentes. Ensuite nous proposons un langage a objet multifonctionnel de haut niveau d'abstraction baptise soml, utilise comme un outil d'aide a la conception et un procede de verification de l'idee du concepteur. Ce langage peut structurer sous formes de classes d'objets les connaissances statiques (proprietes) et les connaissances dynamiques (taches et methodes). Il permet une assistance durant toutes les phases du processus de conception. Les scenes creees peuvent etre ensuite facilement modifiees et reutilisees. Enfin, la methode hi-commode et le langage soml sont implantes dans un environnement decodes, operationnel sous unix. Il integre une interface graphique, un systeme de resolution, un modeleur geometrique de solides fonde sur des arbres csg et un logiciel de visualisation.
26

Le, Ber Françoise. "Modélisation des connaissances et raisonnements pour l'analyse de paysages agraires à partir de données satellitaires." Nancy 1, 1993. http://www.theses.fr/1993NAN10342.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'INRA et le CRIN/INRIA. Elle porte sur la représentation des connaissances et raisonnements au moyen de systèmes multi-agents à base de tableau noir, et s'intéresse en particulier à l'usage des modèles dans l'expertise et dans sa représentation. Le domaine d'expertise est celui de l'agronomie confrontée à l'imagerie satellitaire: des images sont extraites des cartes régionales d'occupation du sol qui suivent ensuite un diagnostic des systèmes agraires. La première partie du rapport présente des généralités sur l'expertise, les systèmes d'analyse d'images, les systèmes multi-agents à base de tableau noir et les méthodes d'acquisition et de représentation de l'expertise. La deuxième partie du rapport s'intéresse à l'expertise concernant la cartographie des occupations du sol. Cette expertise est présentée puis formalisée en un modèle de raisonnement implanté dans le système aérosol, développé à partir d’atome. La connaissance est représentée à la fois dans les spécialistes et les tableaux noirs. Une évaluation du système est présentée. La troisième partie porte sur l'expertise concernant l'analyse des fonctionnements des systèmes agraires. Cette expertise contient différents niveaux de connaissances dont des modèles de paysages. Ceci amène à étudier le rôle des modèles dans l'expertise et dans sa représentation. Des modèles sont proposés pour formaliser la connaissance du domaine. Un modèle de fonctionnement des systèmes agraires est implanté dans le tableau noir de aréopage, système d'aide à l'analyse des cartes issues des images
27

Chouvet, Marie-Pierre. "Un environnement pour faciliter acquisition, représentation des connaissances et explication dans l'aide à la décision : application à la radiothérapie." Nancy 1, 1992. http://www.theses.fr/1992NAN10176.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se situe dans le domaine de la modélisation des connaissances utilisées dans la résolution de problèmes complexes. Les idées développées dans cette thèse ont été validées dans le développement d'un environnement (ESTHER) destiné à aider les radiothérapeutes à définir des plans de traitement en radiothérapie. Dans la première partie du document, nous avons voulu montrer qu'il existe plusieurs types de problèmes dont chacun fait intervenir des informations ainsi que des modes de résolution spécifiques. La planification en radiothérapie est traitée comme exemple. Dans la seconde partie de la thèse, nous avons mis en relation l'acquisition de connaissances avec la conception d'explications, l'utilisation et la construction de systèmes à base de connaissances afin de dégager les liens entre les domaines. Nous nous sommes également intéressés aux images qui entrent pour une large part dans le processus de décision en radiothérapie. ESTHER, décrit dans la troisième partie du document, a été développé en collaboration avec le Centre Alexis Vautrin de Nancy. Il est constitué de bases de connaissances modulaires, des outils qui les gèrent et d'un moteur d'inférences, développé dans le cadre du travail. Nous avons insisté sur l'articulation entre la modélisation des connaissances et la représentation informatique. La dernière partie de cette thèse présente quelques enseignements tirés de l'acquisition et de la modélisation des connaissances.
28

Cohen-Solal, Quentin. "Un cadre algébrique pour le raisonnement qualitatif en présence d'informations hétérogènes : application aux raisonnements multi-échelle et spatio-temporel." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC245/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi les différentes formes de raisonnement étudiées dans le contexte de l'intelligence artificielle, le raisonnement qualitatif permet d'inférer de nouvelles connaissances dans le contexte d'informations imprécises, incomplètes et dépourvues de valeurs numériques. Il permet par exemple de déduire de nouvelles informations à partir d'un ensemble d'informations spatiales telles que « la France est frontalière de l'Allemagne », « la Suisse est à l'est de la France », « l'Italie est en Europe » et « le Luxembourg est proche de la France ». Il peut également être utilisé pour résoudre des abstractions de problèmes quantitatifs difficiles à résoudre, afin par exemple d'accélérer la résolution de ces problèmes.De nombreux formalismes de raisonnement qualitatif ont été proposés dans la littérature. Ils ne se focalisent cependant que sur un seul aspect du monde, alors que la majorité des applications requièrent la prise en compte d'informations hétérogènes. Afin de répondre à ces besoins, plusieurs combinaisons et extensions de formalismes qualitatifs, comme le raisonnement spatio-temporel et le raisonnement multi-échelle, ont récemment été proposées dans la littérature. Le raisonnement spatio-temporel permet de raisonner dans le contexte d'informations spatiales et temporelles interdépendantes. Le raisonnement multi-échelle permet de raisonner avec des informations de précisions différentes, et en particulier de lever des incohérences apparentes.Dans cette thèse, nous nous intéressons au raisonnement multi-échelle, au raisonnement spatio-temporel et aux combinaisons de formalismes qualitatifs.Nous proposons d'étendre le raisonnement qualitatif temporel multi-échelle pour prendre en compte le fait que les intervalles de temps peuvent être perçus comme des instants à certaines échelles de précision, de formaliser intégralement ce raisonnement et d'étudier la décision de la cohérence dans ce contexte ainsi que sa complexité. Nous montrons en particulier que ce formalisme permet de décider la cohérence et que le problème de décision de la cohérence est NP-complet, même dans le cas le plus simple.En outre, nous proposons un cadre général permettant de raisonner sur les séquences temporelles d'informations qualitatives, une forme de description spatio-temporelle. Ce cadre permet notamment de raisonner dans le contexte d'évolutions complexes. Par exemple, les entités considérées peuvent avoir des caractéristiques préservées au cours du temps, évoluer de manière dépendante les unes par rapport aux autres, tout en ayant un comportement potentiellement irréversible et différent selon leur nature. De plus, dans ce cadre, le raisonnement est plus performant computationnellement que les approches de l'état de l'art. Nous étudions en particulier la décision de la cohérence dans le contexte spécifique de régions mobiles de taille constante, et montrons que ce cadre permet effectivement de décider la cohérence.De surcroît, nous proposons un cadre formel unifiant plusieurs formes d'extensions et de combinaisons de formalismes qualitatifs, incluant le raisonnement multi-échelle et les séquences temporelles. Ce cadre permet de raisonner dans le contexte de chacune de ces combinaisons et extensions, mais également d'étudier de manière unifiée la décision de la cohérence et sa complexité. Nous établissons en particulier deux théorèmes complémentaires garantissant que la décision de la cohérence est polynomiale, et nous les utilisons pour prouver que plusieurs fragments de séquences temporelles sont traitables.Nous généralisons également la définition principale de formalisme qualitatif afin d'inclure des formalismes qualitatifs exclus des définitions de la littérature, importants dans le cadre des combinaisons
In this thesis, we are interested in qualitative multi-scale reasoning, qualitative spatio-temporal reasoning and combinations of qualitative formalisms.We propose to extend the multiscale temporal reasoning to take into account the fact that time intervals can be perceived as instants at certain scales of precision, to fully formalize this reasoning and to study its consistency problem. We show in particular that this formalism decides consistency and that the consistency problem is NP-complete, even in the simplest case.In addition, we propose a general framework for reasoning on temporal sequences of qualitative information, a form of spatio-temporal description. This framework allows for reasoning in the context of complex evolutions. For example, the considered entities may have characteristics preserved over time, evolve in a dependent manner with respect to each other, while having a potentially irreversible and different behavior depending on their nature. Moreover, in this context, reasoning is computationally more efficient than state-of-the-art approaches. In particular, we study the consistency problem in the specific context of constant-size moving regions, and show that this framework actually decides consistency.Furthermore, we propose a formal framework unifying several forms of extensions and combinations of qualitative formalisms, including multi-scale reasoning and temporal sequences. This framework allows one to reason in the context of each of these combinations and extensions, but also to study in a unified way the consistency problem. In particular, we establish two complementary theorems guaranteeing that the consistency problem is polynomial, and we use them to prove that several fragments of temporal sequences are tractable
29

Mangelinck, Ludmila. "Représentation et classification de structures spatiales -- Application à la reconnaissance de paysages agricoles." Phd thesis, Université Henri Poincaré - Nancy I, 1998. http://tel.archives-ouvertes.fr/tel-00391141.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette th{è}se, nous nous int{é}ressons {à} la repr{é}sentation et {à} la classification de structures spatiales dans le cadre de la reconnaissance de mod{è}les de paysages agricoles sur des images satellites. Nous avons d{é}fini, lors d'une phase d'acquisition des connaissances, des mod{è}les de paysages sous forme de classes dans un syst{è}me de repr{é}sentation des connaissances par objets. Les classes sont reli{é}es entre elles par des relations spatiales qualitatives. Les relations spatiales sont des classes dont les instances lient d'autres classes. Les classes de relations sont organis{é}es dans une hi{é}rarchie ayant une structure de treillis permettant de repr{é}senter la sp{é}cialisation, l'implication, la disjonction et la conjonction de relations. Nous avons choisi un treillis de Galois qui permet de mettre en {é}vidence le lien entre relations et conditions n{é}cessaires {à} la v{é}rification des relations sur l'image. Gr{â}ce {à} cette structure, nous avons propos{é} un algorithme de recherche de l'ensemble minimum des conditions qui permet de r{é}duire le nombre d'op{é}rations sur les images. Des algorithmes ont {é}t{é} aussi propos{é}s pour repr{é}senter les propri{é}t{é}s math{é}matiques des relations. Nous proposons d'ajouter au langage quatre facettes permettant de repr{é}senter la quantification des relations spatiales. Nous avons modifi{é} l'op{é}ration qui associe un mod{è}le {à} une entit{é} pour prendre en compte la quantification des relations dans la classification des structures spatiales. Le syst{è}me de reconnaissance a {é}t{é} implant{é} dans le langage \yafool et mis en \oe{}uvre sur des cartes de la r{é}gion Lorraine.
30

Leman, Stéphane. "Tremma : transfert d'expertise avec un modèle multi-agents : un modèle multi-agents pour la représentation dynamique des connaissances et des raisonnements d'un apprenant." La Réunion, 1996. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/96_Leman.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse présente modèle multi-agents générique pour la représentation d'une la définition d'un expertise et l'application de ce modèle pour le transfert de cette expertise. Les travaux sont plus particulièrement axés sur la modélisation des connaissances et des raisonnements d'un apprenant par des agents cognitifs mais le modèle intègre également des aspects pédagogiques par l'introduction de stratégies tutorielles. Le modèle multi-agents est constitué par la définition conjointe d'un modèle d'agent, d'un modèle de société et d'une organisation multi-niveaux pour la représentation d'expertise. L'application de ce modèle multi-agents pour le transfert d'expertise comporte trois aspects: définition des agents de deux types représentant les connaissances primitives et l'enchaînement hiérarchique de ces deux types de connaissances au sein des graphes de raisonnement ; modélisation des connaissances de l'apprenant comme un sous-ensemble de l'expertise décrite dans les graphes de raisonnement et la construction du modèle de l'apprenant par recouvrement distribué et enfin intégration au sein même du modèle d'agent de stratégies tutorielles permettant d'utiliser au mieux le modèle de l'apprenant construit.
31

Chen, Jieying. "Knowledge Extraction from Description Logic Terminologies." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS531.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre croissant d'ontologies de grandes tailles ont été développées et mises à disposition dans des référentiels tels que le NCBO Bioportal. L'accès aux connaissances les plus pertinentes contenues dans les grandes ontologies a été identifié comme un défi important. À cette fin, nous proposons dans cette thèse trois notions différentes : modules d’ontologie minimale (sous-ontologies conservant toutes les implications sur un vocabulaire donné), meilleurs extraits ontologiques (certains petits nombres d’axiomes qui capturent le mieux les connaissances sur le vocabulaire permettant un degré de perte sémantique) et un module de projection (sous-ontologies d'une ontologie cible qui impliquent la subsomption, les requêtes d'instance et les requêtes conjonctives issues d'une ontologie de référence). Pour calculer le module minimal et le meilleur extrait, nous introduisons la notion de justification de subsomption en tant qu'extension de la justification (ensemble minimal d'axiomes nécessaires pour conserver une conséquence logique) pour capturer la connaissance de subsomption entre un terme et tous les autres termes du vocabulaire. De même, nous introduisons la notion de justifications de projection qui impliquent une conséquence pour trois requêtes différentes afin de calculer le module de projection. Enfin, nous évaluons nos approches en appliquant une implémentation prototype sur de grandes ontologies
An increasing number of ontologies of large sizes have been developed and made available in repositories such as the NCBO Bioportal. Ensuring access to the most relevant knowledge contained in large ontologies has been identified as an important challenge. To this end, in this thesis, we propose three different notions: minimal ontology modules (sub-ontologies that preserve all entailments over a given vocabulary), best ontology excerpts (certain, small number of axioms that best capture the knowledge regarding the vocabulary by allowing for a degree of semantic loss) and projection module (sub-ontologies of a target ontology that entail subsumption, instance and conjunctive queries that follow from a reference ontology). For computing minimal module and best excerpt, we introduce the notion of subsumption justification as an extension of justification (a minimal set of axioms needed to preserve a logical consequence) to capture the subsumption knowledge between a term and all other terms in the vocabulary. Similarly, we introduce the notion of projection justifications that entail consequence for three different queries in order to computing projection module. Finally, we evaluate our approaches by applying a prototype implementation on large ontologies
32

Thomazo, Michaël. "Conjunctive Query Answering Under Existential Rules - Decidability, Complexity, and Algorithms." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00925722.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif du problème appelé "Ontology-based data access" (OBDA) est d'améliorer la réponse à des requêtes en prenant en compte des connaissances d'ordre général durant l'évaluation des requêtes. Ces connaissances générales sont représentées à l'aide d'une ontologie, qui est exprimée dans cette thèse grâce à des formules logiques du premier ordre, appelées règles existentielles, et aussi connues sous le nom de "tuple-generating dependencies" et Datalog+/-. L'expressivité des formules utilisées est telle que l'évaluation de requêtes devient un problème indécidable, et cela a conduit la communauté à définir de nombreux cas décidables, c'est-à-dire des restrictions sur les ensembles de règles existentielles considérés. La contribution de cette thèse est double : tout d'abord, nous proposons une vue unifiée sur une grande fraction des cas décidables connus, et fournissons par là même une analyse de complexité et un algorithme optimal dans le pire des cas. Nous considérons également l'approche couramment utilisée de réécriture de requêtes, et proposons un algorithme générique qui permet de surmonter certaines causes évidentes d'explosion combinatoire qui rendent les approches classiques pratiquement inapplicables.
33

Sabouret, Nicolas. "Étude de modèles de représentations, de requêtes et de raisonnement sur le fonctionnement des composants actifs pour l'interaction homme-machine." Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00002979.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous abordons le problème de la construction de réponses à des requêtes formelles modélisant les questions qu'un utilisateur humain peut poser concernant le fonctionnement d'un composant actif. Nous présentons d'abord un langage de programmation qui permet d'accéder en cours d'exécution à la description des actions du composant. Nous proposons ensuite un modèle de requêtes qui permet de représenter une large classe de question sur le fonctionnement et de prendre en compte des notions de bon sens issues de l'interaction en langage naturel. Nous proposons des algorithmes de construction de réponses pour ces requêtes formelles de bon sens. Nous étudions aussi le traitement des requêtes portant sur l'exécution passée du composant. Nous proposons une approche dynamique fondée sur l'extraction de comportement à partir des flux d'interaction. Enfin, nous montrons que notre travail peut être utilisé dans le web sémantique pour définir des pages dynamiques capables d'interagir avec les utilisateurs ordinaires, puis nous présentons l'implémentation de notre modèle dans le cadre du projet InterViews.
34

Azough, Ahmed. "Modèle sémantique de la vidéo pour la description, la détection et la recherche des événements visuels." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10055.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse consiste à explorer l'usage d'outils de support de la sémantique des données dans le domaine du multimédia. La première contribution concerne la génération de descriptions de haut-niveau. Nous proposons un langage de description de haut-niveau qui permet la définition d'événements et d'objets à partir de caractéristiques de bas-niveau. La deuxième contribution concerne l'exploration de certains types de raisonnement dans le contexte de la multimédia sémantique. Nous proposons un langage sémantique (fondé sur les graphes conceptuels flous) pour la description des vidéos et définissons des mécanismes de raisonnement sous-jacents. La troisième contribution porte sur l'indexation et la recherche sémantique dans les bases de données multimédia. Nous proposons un langage de requêtes issu des bases de données déductives pour l'expression de requêtes spatiotemporelles et sémantiques
This thesis is about to explore the use of tools to support semantics of data in the field of multimedia. The first contribution concerns the generation of high-level descriptions. We propose a description language that allows high-level definition of events and objects from low-level features. The second contribution is the exploration of certain types of uncertainty reasoning in the context of multimedia semantics. We propose a semantic language (based on fuzzy conceptual graphs) for descriptions of videos and define mechanisms underlying reasoning. The third contribution relates to the semantic indexing and retrieval in multimedia databases. We propose a query language from deductive databases for the expression of spatiotemporal and semantic queries
35

Girard, Pierre. "Construction hypothétique d'objets complexes." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00345880.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les modèles à objets distinguant la notion de classe (ensemble d'individus) de celle d'instance (individu particulier), la classe peut jouer deux rôles fondamentalement différents. Les modèles qui mettent en œuvre des mécanismes de classification d'instances, présentent la classe comme une unité d'identification caractérisant les propriétés que doivent posséder toutes ses instances. Ces propriétés sont alors utilisées pour établir l'appartenance d'une instance à une classe. D'autres modèles utilisent la classe comme unité de construction, ou de gestion, d'instances. Ils laissent alors toutes libertés dans la description de la classe pour introduire des informations procédurales qui sont utilisées pour modifier ou compléter une instance qui lui a été explicitement rattachée. Notre travail consiste à mettre en place un mécanisme capable de trouver les différentes solutions que peut proposer une hiérarchie de classes à un problème de construction d'instance. Schématiquement, un tel problème se caractérise par la donnée d'une instance pour laquelle subsistent des possibilités de raffinement dans la hiérarchie de classes et dont la valeur de certains attributs reste inconnue. La solution proposée prend place dans un modèle à objets, appelé TROPES, défini pour accueillir un raisonnement classificatoire. La mise en place du mécanisme de construction d'instance par exploration d'une hiérarchie est assurée par un système, dit d'assistance hypothétique, couplé au système TROPES. Ce système d'assistance est chargé de produire et de gérer les hypothèses permettant de prolonger l'exploration d'une hiérarchie de classes au delà des limites atteintes par la classification d'instances. Les différentes combinaisons d'hypothèses pouvant ainsi être formées sont validées par TROPES sur des versions différentes de l'instance. Lorsque le mécanisme est appliqué à un objet composite, le partage de valeurs d'attributs entre composants et composite permet la propagation du processus de construction du composite vers les composants
36

Rocher, Swan. "Querying existential rule knowledge bases : decidability and complexity." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT291/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons au problème d'interrogation de bases de connaissances composées de données et d'une ontologie, qui représente des connaissances générales sur le domaine d'application. Parmi les différents formalismes permettant de représenter les connaissances ontologiques, nous considérons ici un fragment de la logique du premier ordre appelé règles existentielles (aussi connues sous le nom de ``tuple generating dependencies'' et Datalog+/-). Le problème fondamental de conséquence logique au cœur de cette thèse demande si une requête conjonctive est conséquence d'une base de connaissances. Les règles existentielles étant très expressives, ce problème est indécidable. Toutefois, différentes restrictions sur les ensembles de règles ont été proposées afin d'obtenir sa décidabilité.La contribution de cette thèse est double. Premièrement, nous proposons un outil qui nous permet d'unifier puis d'étendre la plupart des classes de règles connues reposant sur des notions d'acyclicité assurant la finitude du chaînage avant. Deuxièmement, nous étudions la compatibilité des classes décidables de règles existentielles connues avec un type de connaissance souvent nécessaire dans les ontologies: la transitivité de relations binaires. Nous aidons à clarifier le paysage des résultats positifs et négatifs liés à cette question et fournissons une approche permettant de combiner la transitivité avec les règles existentielles linéaires
In this thesis we investigate the issue of querying knowledge bases composed of data and general background knowledge, called an ontology. Ontological knowledge can be represented under different formalisms and we consider here a fragment of first-order logic called existential rules (also known as tuple-generating dependencies and Datalog+/-).The fundamental entailment problem at the core of this thesis asks if a conjunctive query is entailed by an existential rule knowledge base. General existential rules are highly expressive, however at the cost of undecidability. Various restrictions on sets of rules have been proposed to regain the decidability of the entailment problem.Our specific contribution is two-fold. First, we propose a new tool that allows to unify and extend most of the known existential rule classes that rely on acyclicity conditions to tame infinite forward chaining, without increasing the complexity of the acyclicity recognition. Second, we study the compatibility of known decidable rule classes with a frequently required modeling construct, namely transitivity of binary relations. We help clarifying the picture of negative and positive results on this question, and provide a technique to safely combine transitivity with one of the simplest, yet useful, decidable rule classes, namely linear rules
37

Schmeltzer, Olivier. "Modélisation de cartes génomiques : une formalisation et un algorithme de construction fondé sur le raisonnement temporel." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation de cartes génomiques, qui sont un outil indispensable aux biologistes moléculaires, pose de nombreux problémes de représentation et de traitement. Les premiers proviennent de l'existence de plusieurs descriptions des entités du génome, les seconds de la complexité algorithmique de la construction des cartes, ajoutée à la nécessité de pouvoir traiter les incohérences issues des expériences. Ce travail s'attache dans un premier temps à préciser la notion de carte grâce à une formalisation qui spécifie comment sont construites les cartes génomiques et quelles sont les relations entre les entités qui y apparaissent. Celle-ci est ensuite implémentée dans un système de représentation de connaissances par objets. Dans un second temps, un algorithme de construction de cartes à partir de la description des relations entre les entités qui les constituent est proposé. Cet algorithme s'appuie sur des techniques de raisonnement temporel et intègre des informations aussi bien qualitatives que quantitatives. Son implémentation a été réalisée à partir d'un logiciel de raisonnement temporel et valide la généricité de la démarche qui peut profiter de tous les progrès dans ce domaine de façon quasi-immédiate. Les spécifications d'un générateur d'interfaces cartographiques sont également présentées ; à la différence des systèmes existants, ce générateur n'est pas restreint à une seule interface cartographique ad hoc mais constitue une boite à outils permettant de construire soi-même son interface cartographique personnalisée.
38

Girard, Pierre. "Construction hypothétique d'objets complexes." Phd thesis, Grenoble 1, 1995. https://theses.hal.science/tel-00345880.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les modèles à objets distinguant la notion de classe (ensemble d'individus) de celle d'instance (individu particulier), la classe peut jouer deux rôles fondamentalement différents. Les modèles qui mettent en œuvre des mécanismes de classification d'instances, présentent la classe comme une unité d'identification caractérisant les propriétés que doivent posséder toutes ses instances. Ces propriétés sont alors utilisées pour établir l'appartenance d'une instance à une classe. D'autres modèles utilisent la classe comme unité de construction, ou de gestion, d'instances. Ils laissent alors toutes libertés dans la description de la classe pour introduire des informations procédurales qui sont utilisées pour modifier ou compléter une instance qui lui a été explicitement rattachée. Notre travail consiste à mettre en place un mécanisme capable de trouver les différentes solutions que peut proposer une hiérarchie de classes à un problème de construction d'instance. Schématiquement, un tel problème se caractérise par la donnée d'une instance pour laquelle subsistent des possibilités de raffinement dans la hiérarchie de classes et dont la valeur de certains attributs reste inconnue. La solution proposée prend place dans un modèle à objets, appelé TROPES, défini pour accueillir un raisonnement classificatoire. La mise en place du mécanisme de construction d'instance par exploration d'une hiérarchie est assurée par un système, dit d'assistance hypothétique, couplé au système TROPES. Ce système d'assistance est chargé de produire et de gérer les hypothèses permettant de prolonger l'exploration d'une hiérarchie de classes au delà des limites atteintes par la classification d'instances. Les différentes combinaisons d'hypothèses pouvant ainsi être formées sont validées par TROPES sur des versions différentes de l'instance. Lorsque le mécanisme est appliqué à un objet composite, le partage de valeurs d'attributs entre composants et composite permet la propagation du processus de construction du composite vers les composants
39

Ma, Truong-Thanh. "Sur la fusion d'ontologies à domaine ouvert." Electronic Thesis or Diss., Artois, 2022. http://www.theses.fr/2022ARTO0406.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet de la thèse est la fusion d'ontologies, une approche pour intégrer diverses sources d'ontologies en une seule qui gère les conflits émergents. Cette thèse s'inspire de la théorie de la fusion de croyances pour fusionner des ontologies afin de produire une base de connaissances cohérente et unifiée. Dans ce contexte, nous proposons trois contributions suivantes.Dans la première contribution, nous formalisons une nouvelle modèle de fusion basé sur la sémantique. Il s’agit d’une stratégie de fusion qui se concentre principalement sur la gestion des conflits sémantiques. Un conflit sémantique, qui n'est pas nécessairement logique, est une connaissance représentée de nombreuses manières différentes ou opposées. Nous proposons également une caractérisation formelle du modèle et nous montrons l'efficacité de la méthode à travers une évaluation expérimentale.La deuxième contribution propose une méthode permettant de fusionner les connaissances terminologiques d’un domaine ouvert. Elle se focalise sur RCC5 qui est un formalisme de représentation des régions dans un espace topologique. Ce formalisme permet également de raisonner sur leurs relations ensemblistes. De plus, nous proposons une traduction fidèle des connaissances terminologiques issues des sources conflictuelles dans les espaces régionaux. Ici, nous fusionnons les bases de connaissances dans ces espaces et nous traduisons le résultat vers la langue des sources d'entrée. Notre technique utilise l'expressivité et la flexibilité de RCC5 pour traiter des connaissances contradictoires.La dernière contribution est un cadre d'évaluation des opérateurs de fusion d'ontologies. La stratégie part d'une ontologie originale pour créer des ontologies bruitées en tant qu'ensembles de données et les utiliser afin d’évaluer les opérateurs de fusion. Finalement, nous analysons l'efficacité des opérateurs de fusion en termes de temps de calcul et leur capacité à couvrir l'ontologie d'origine. Enfin, nous mettons en œuvre une expérience avec des ontologies pratiques pour évaluer les opérateurs de fusion
The subject of the thesis is ontology merging, an approach for integrating various ontology sources into a unique one that handles emerging conflicts. This dissertation takes inspiration from the belief merging theory for merging ontologies to produce a consistent and unified knowledge base. We propose the three following contributions.The first one is a semantic-based merging approach. In particular, a model-based merging strategy mainly focuses on handling semantic conflicts. A semantic conflict, which is not necessarily logical, is knowledge represented in many different or opposite ways. We also propose a formal model characterization and show the method's effectiveness with an experimental evaluation.The second approach proposes a new framework to merge open-domain terminological knowledge. It leverages RCC5, a formalism for representing regions in a topological space and reasoning about their set-theoretic relationships. We propose a faithful translation of terminological knowledge from conflicting sources into region spaces. Here, we merge knowledge bases in this space and translate the outcome into the input sources' language. Our technique uses RCC5's expressivity and flexibility to deal with contradictory knowledge.The last contribution is a framework for evaluating ontology merging operators. The primary strategy starts with an original ontology to create noisy ontologies as datasets and use them to assess the merging operators. Then, we analyze merging operators' computation time effectiveness and ability to cover the original ontology. Finally, we experimented with practical ontologies to evaluate the merging operators
40

Brunet, Eric. "Conception et réalisation d'un système expert d'aide à l'interprétation des chocs mécaniques en centrale nucléaire." Compiègne, 1988. http://www.theses.fr/1988COMPD113.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail réalisé a permis la conception d'un générateur de systèmes experts d'aide au diagnostic (MIGRE) et la réalisation, à partir de celui-ci, d'un système d'aide à l'interprétation des chocs mécaniques en centrale nucléaire. Le problème central du développement de systèmes à base de connaissances est lié au concept de " connaissance ". MIGRE propose une classification des connaissances en trois niveaux. Le premier concerne les connaissances de base ou descriptives et est formalisé à travers un modèle Entité-Relation. Le second niveau associe aux concepts de base des informations spécifiques à leurs utilisations (notions de vecteurs de connaissances). Le dernier niveau concerne les connaissances d'expertise (règle de stratégie, inférence, définition,. . . ). L'éditeur de base d'expertise comporte une Interface en Langage Naturel spécialisé dont l'objectif est de comprendre " le sens " d'une phrase sur le domaine décrit par le modèle conceptuel (niveaux 1 et 2) (réalisation à travers une Definite Clause Grammar). La résolution d'un problème est guidée par la réponse du Module d'Exploitation des Connaissances (MEC) à un certain nombre de tâches élaborées dynamiquement. Les travaux réalisés ont montré d'une part l'intérêt des résultats obtenus dans d'autres domaines tels la psychologie cognitive et d'autre part que la compréhension de phrases et le raisonnement nécessitent un même ensemble de connaissances élémentaires (mémoire sémantique)
The main purpose of this research work was the design of a Diagnostic Expert System work bench (MIGRE) and, from it, the realization of a system to aid the interpretation of mechanical impacts in nuclear power plants. The central problem for knowledge based system is related to the concept of “knowledge”. MIGRE proposes a three-level classification of knowledge. The first level is concerned with basic or descriptive knowledge and is formalised in an Entity-Relation model. The second level associates the basic concepts with specific information (“Knowledge Vector”). The last level deals with inference knowledge. Each element of expertise is represented by a “marked” rule (strategy, inference, definition,. . . ). MIGRE provides tools support the activities of application development. Thus, the knowledge base editor includes a Specialized Natural Language Interface, whose aim is to understand the “meaning” of a sentence, and in particular to look for “implicit” knowledge. The parser is a semantic one, using a Definite Clause Grammar. Problem solution is guided by the answers given by the knowledge Exploitation module to a number of tasks extended dynamically during the reasoning. The results show that the two “intellectual” activities of understanding sentences and reasoning to solve a problem require a common core of knowledge
41

Goasdoué, François. "Knowledge Representation meets DataBases for the sake of ontology-based data management." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00759274.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This Habilitation thesis outlines my research activities carried out as an Associate Professor at Univ. Paris-Sud and Inria Saclay Île-de-France. During this period, from 2003 to early 2012, my work was - and still is - at the interface between Knowledge Representation and Databases. I have mainly focused on ontology-based data management using the Semantic Web data models promoted by W3C: the Resource Description Framework (RDF) and the Web Ontology Language (OWL). In particular, my work has covered (i) the design, (ii) the optimization, and (iii) the decentralization of ontology-based data management techniques in these data models. This thesis briefly reports on the results obtained along these lines of research.
42

König, Mélanie. "Interrogation de grandes bases de connaissances : algorithmes de réécriture de requêtes conjonctives en présence de règles existentielles." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20148/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La problématique d'interrogation d'une base de données en présence d'une ontologie (OBQA pour "Ontology-based Query Answering") consiste à prendre en compte des connaissances générales, typiquement une ontologie de domaine, lors de l'évaluation d'une requête. Dans le cadre de cette thèse, ces connaissances sont représentées par des formules de la logique du premier ordre appelées "règles existentielles". Les règles existentielles sont aussi connues sous le nom de règles Datalog+/- ou "tuple-generating dependencies". Nous considérons une approche couramment utilisée, qui consiste à réécrire la requête en exploitant les règles de façon à se ramener à un problème classique l'interrogation d'une base de données. Nous définissons un cadre théorique d'étude des algorithmes de réécriture d'une requête conjonctive en une union de requêtes conjonctives, accompagné d'un algorithme de réécriture générique, prenant en paramètre un opérateur de réécriture. Nous proposons ensuite plusieurs opérateurs de réécriture et développons différentes optimisations, que nous évaluons sur des benchmarks du domaine
The issue of querying a knowledge base, also called Ontology-based Query Answering (OBQA), consists of taking into account general knowledge, typically a domain ontology, when evaluating queries. In this thesis, ontological knowledge is represented by first-order logical formulas, called existential rules. Existential rules are also known as Datalog+/- and tuple-generating dependencies. We adopt a well-known approach, which consists of rewriting the query with the rules to reduce the problem to a classical database query answering problem. We define a theoretical framework to study algorithms that rewrite a conjunctive query into a union of conjunctive queries, as well as a generic rewriting algorithm that takes into account a rewriting operator. Then, we propose several rewriting operators and develop several optimisations, which we evaluate on benchmarks of the domain
43

Carvalho, Felipe. "La pensée démonstrative : une approche pragmatique." Paris, EHESS, 2013. http://www.theses.fr/2013EHES0048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse examine la possibilité d'expliquer notre capacité à penser de façon démonstrative aux objets particuliers dans le monde, dans le cadre d'une approche pragmatiste de la représentation mentale singulière. Cette approche sera développée dans le contexte d'un débat entre les théories conceptualistes et perceptualistes de la pensée démonstrative. Selon les premières, cette capacité ne saurait être expliquée en I'absence de connaissances conceptuelles sophistiquées d'arrière plan portant sur la nature des objets et leur comportement dans I'espace et le temps. Selon les secondes, on peut expliquer une telle capacité au niveau plus primitif de la perception, en faisant appel à des processus percepifs de bas-niveau qui sont naturellement adaptés aux tâches consistant à individuer et à suivre à la trace les objets matériels de taille moyenne. Cetle thèse argumentera en faveur d'une position intermédiaire plus attractive, fondée sur une approche pragmatiste de la pensée démonstrative selon laquelle notre capacité à penser aux objets particuliers s'explique par notre connaissance pratique des objets et de leurs comportements, laquelle est issue de nos modes récurrents d'interaction avec les objets dans le monde
This thesis investigates the possibility of explaining our capacity to have demonstrative thoughts about particulars in our external environment within a broadly pragmatist approach to singular mental representation. This approach will be introduced in the context of a debate between conceptualists and perceptualists about demonstrative thought. According to the first, this capacity cannot be explained in the absence of sophistioated background conceptual knowledge of what objects are and how they behave in space and time. According to the latter we can explain it at the more primitive level of perception, on the basis of low-level perceptual processes that are naturally tuned to the task of individuating and fracking medium-sized material objects. This thesis will argue that a more desirable middle ground can be attained by adopting a pragmatist approach to demonstrative thought, where the capacity to think about particulars in the world is explained through a practical knowledge of what objects are and how they behave, acquired through repeated pattems of active interactions with objects in the world
44

Sala, Michel. "Proposition d'une méthodologie et d'un environnement d'apprentissage d'aide à la découverte scientifique : application à la génétique, l'environnement SIGALE." Montpellier 2, 1996. http://www.theses.fr/1996MON20019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons une methodologie pour concevoir un environnement d'apprentissage qui permet au chercheur de modeliser son modele du domaine dans le cadre d'aide a la decouverte scientifique. Le modele du domaine est represente sous forme de base de connaissances contenant un ensemble de contraintes sur les donnees experimentales et les resultats des outils de calcul. A la suite d'incoherences entre les experimentations et la base de connaissances, l'environnement d'apprentissage fournit un ensemble d'explications concernant les contraintes non respectees ainsi que des informations complementaires selectionnees dans des bases de donnees du domaine
45

Duong, Vu Nguyen. "La résolution des réseaux de contraintes algébriques et qualitatives : une approche d'aide à la conception en ingéniérie." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1990. http://tel.archives-ouvertes.fr/tel-00520680.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse est que la représentation par contraintes, en terme de langage et la déduction par la gestion automatique des réseaux de contraintes est une voie adéquate pour les systèmes d'aide à la conception en ingénierie. Deux techniques de l'Intelligence Artificielle à savoir la Propagation de Contraintes et le Raisonnement Qualitatif sont abordées. La Propagation de Contraintes est un mécanisme d'inférences déductives sur les réseaux de contraintes. Ce mécanisme présente plusieurs difficultés, particulièrement dans les calculs pas-à-pas de la résolution des relations entre valeurs des variables. Pour améliorer ce mécanisme, il est proposé dans le présente travail des algorithmes de filtrage sur la consistance locale dans des réseaux de contraintes algébriques n-aires. Ainsi, le concept de réseaux dynamiques est exploité comme un module d'aide à la conception. Le Raisonnement Qualitatif permet aux concepteurs d'analyser les modèles quand la connaissance est incomplète. L'approche de la Simulation Qualitative est proposée. L'adéquation de celle-ci est illustrée par d'une part, la représentation de connaissances incomplètes en termes de contraintes qualitatives, et d'autre part, sa capacité de saisir les comportements qualitatifs possibles des modèles. Un ensemble de logiciels est développé et leur efficacité démontrée sur des cas simples.
46

Guérin, Clément. "Proposition d'un cadre pour l'analyse automatique, l'interprétation et la recherche interactive d'images de bande dessinée." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le paysage numérique de la culture française et mondiale subit de grands bouleversements depuis une quinzaine d’années avec des mutations historiques des médias, de leur format traditionnel au format numérique, tirant avantageusement parti des nouveaux moyens de communication et des dispositifs mobiles aujourd’hui popularisés. Aux côtés de formes culturelles ayant achevé, ou étant en passe d’achever, leur transition vers le numérique, la bande dessinée tâtonne encore pour trouver sa place dans l’espace du tout dématérialisé. En parallèle de l’émergence de jeunes auteurs créant spécifiquement pour ces nouveaux supports de lecture que sont ordinateurs, tablettes et smartphones, plusieurs acteurs du monde socio-économique s’intéressent à la valorisation du patrimoine existant. Les efforts se concentrent autant sur une démarche d’adaptation des œuvres aux nouveaux paradigmes de lecture que sur celle d’une indexation de leur contenu facilitant la recherche d’informations dans des bases d’albums numérisés ou dans des collections d’œuvres rares. La problématique est double, il s’agit premièrement d’être en mesure d’identifier la structure d’une planche de bande dessinée en se basant sur des extractions de primitives, issues d’une analyse d’image, validées et corrigées grâce à l’action conjointe de deux ontologies, la première manipulant les extractions d’images bas-niveau, la deuxième modélisant les règles de composition classiques de la bande dessinée franco-belge. Dans un second temps l’accent est mis sur l’enrichissement sémantique des éléments identifiés comme composants individuels d’une planche en s’appuyant sur les relations spatiales qu’ils entretiennent les uns avec les autres ainsi que sur leurs caractéristiques physiques intrinsèques. Ces annotations peuvent porter sur des éléments seuls (place d’une case dans la séquence de lecture) ou sur des liens entre éléments (texte prononcé par un personnage)
Since the beginning of the twenty-first century, the cultural industry, both in France and worldwide, has been through a massive and historical mutation. They have had to adapt to the emerging digital technology represented by the Internet and the new handheld devices such as smartphones and tablets. Although some industries successfully transfered a piece of their activity to the digital market and are about to find a sound business model, the comic books industry keeps looking for the right solution and has not yet produce anything as convincing as the music or movie offers. While many new young authors and writers use their creativity to produce specifically digital designed pieces of art, some other minds are focused on the preservation and the development of the already existing heritage. So far, efforts have been concentrated on the transfer from printed to digital support, with a special attention given to their specific features and how they can be used to create new reading conventions. There has also been some concerns about the content indexing, which is a hard task regarding the large amount of data created since the very beginning of the comics history. From a scientific point of view, there are several issues related to these goals. First, it implies to be able to identify the underlying structure of a comic books page. This comes through the extraction of the page's components, their validation and their correction based on the representation and reasoning capacities of two ontologies. The first one focus on the representation of the image analysis concepts and the second one represents the comic books domain knowledge. Secondly, a special attention is given to the semantic enhancement of the extracted elements, based on their spatial relations to each others and on their own characteristics. These annotations can be related to elements only (e.g. the position of a panel in the reading sequence), or to the bound between several elements (e.g. the text pronounced by a character)
47

Shang, Wei. "Un système et un langage pour le traitement d'inférences non monotone." Compiègne, 1990. http://www.theses.fr/1990COMPD299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons dans ce mémoire un système d'inférence en logiques non-monotones. Ce système a pour objet de représenter les connaissances et le raisonnement révisables. Une étude sur les différentes stratégies de recherche dans l'espace de solutions a été présentée, nous montrons à travers des exemples, que l'enregistrement des dépendances de l'inférence peut optimiser sensiblement la recherche dans l'espace de solutions. Nous décrivons ensuite un système de contrôle de cohérence : ATMS de J. De Kleer, c'est un système à base de dépendances, qui est utilisé comme un module d'inférence dans notre système. Plusieurs systèmes logiques non standards sont aussi présentés, nous mettrons l'accent particulièrement sur les logiques des défauts de R. Reiter, pour lesquelles une version restreinte (défauts nromaux) est réalisée. ANMIL est le langage d'inférence du système, il est décrit en détail. Le la,gage est à base de calcul des prédicats, la non-monotonie demeure dans les règles de défaut et les règles supposées. L'environnement de l'influence de l'ANMIL est multi-contextes, les hypothèses sont gérées automatiquement. L'utilisation des principales commandes est aussi expliquée, la syntaxe du langage est donnée. ANMIS est le système d'inférence. Sa conception est présentée. On y distingue deux modules : un moteur d'inférence proprement dit et un module de gestion de croyances ATMS. Cette séparation, est à notre avis, la meilleure architecture pour effectuer l'inférence non-monotone. Les différentes stratégies d'inférence sont adaptées selon le type de règles (règles de type de clause de Horn ou non). Les techniques ainsi que les difficultés de la réalisation sont discutées
In this thesis a non-monotonic inference system is presented, its purpose is to represent revisable knowledge and perform corresponding reasoning. A study of different research strategies of the solution space is presented, it is shown, through the exemples, that the recording of the inference dependencies can considerably optimize the research in the solution space. Then we describe un belief revision system: AS of J. De Kleer. It is a dependency based one, and is used as m inference unit in our system. Several non-standard logics are also presented, we pay pie1mly attention to R. Reiter's default logic, for which a restrained version (normal defaults) is realized. ANMIL is the inference Ianguage of this system, it is described in detail. The language is a predicate based one, the non-monotony resides in the default and the assumed rules. Its inference environment is the mufti-contexts one, the assumptions me automatically managed. We also explain the principal commands and give the syntax of ANMIL. ANMIS is the inference system. Its concepts are presented. Two sub-systems can be distinguished : an inference engine and a belief revision manager. This kind of architecture, in our opinion, is the best one for performing non-monotonic inference. The different inference strategies are employed according to the type of rides. The techniques and difficulties of the implementation of the system are discussed
48

Lemaignan, Severin. "Grounding the interaction : knowledge management for interactive robots." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec le développement de la robotique cognitive, le besoin d’outils avancés pour représenter, manipuler, raisonner sur les connaissances acquises par un robot a clairement été mis en avant. Mais stocker et manipuler des connaissances requiert tout d’abord d’éclaircir ce que l’on nomme connaissance pour un robot, et comment celle-ci peut-elle être représentée de manière intelligible pour une machine. Ce travail s’efforce dans un premier temps d’identifier de manière systématique les besoins en terme de représentation de connaissance des applications robotiques modernes, dans le contexte spécifique de la robotique de service et des interactions homme-robot. Nous proposons une typologie originale des caractéristiques souhaitables des systèmes de représentation des connaissances, appuyée sur un état de l’art détaillé des outils existants dans notre communauté. Dans un second temps, nous présentons en profondeur ORO, une instanciation particulière d’un système de représentation et manipulation des connaissances, conçu et implémenté durant la préparation de cette thèse. Nous détaillons le fonctionnement interne du système, ainsi que son intégration dans plusieurs architectures robotiques complètes. Un éclairage particulier est donné sur la modélisation de la prise de perspective dans le contexte de l’interaction, et de son interprétation en terme de théorie de l’esprit. La troisième partie de l’étude porte sur une application importante des systèmes de représentation des connaissances dans ce contexte de l’interaction homme-robot : le traitement du dialogue situé. Notre approche et les algorithmes qui amènent à l’ancrage interactif de la communication verbale non contrainte sont présentés, suivis de plusieurs expériences menées au Laboratoire d’Analyse et d’Architecture des Systèmes au CNRS à Toulouse, et au groupe Intelligent Autonomous System de l’université technique de Munich. Nous concluons cette thèse sur un certain nombre de considérations sur la viabilité et l’importance d’une gestion explicite des connaissances des agents, ainsi que par une réflexion sur les éléments encore manquant pour réaliser le programme d’une robotique “de niveau humain”
With the rise of the so-called cognitive robotics, the need of advanced tools to store, manipulate, reason about the knowledge acquired by the robot has been made clear. But storing and manipulating knowledge requires first to understand what the knowledge itself means to the robot and how to represent it in a machine-processable way. This work strives first at providing a systematic study of the knowledge requirements of modern robotic applications in the context of service robotics and human-robot interaction. What are the expressiveness requirement for a robot? what are its needs in term of reasoning techniques? what are the requirement on the robot's knowledge processing structure induced by other cognitive functions like perception or decision making? We propose a novel typology of desirable features for knowledge representation systems supported by an extensive review of existing tools in our community. In a second part, the thesis presents in depth a particular instantiation of a knowledge representation and manipulation system called ORO, that has been designed and implemented during the preparation of the thesis. We elaborate on the inner working of this system, as well as its integration into several complete robot control stacks. A particular focus is given to the modelling of agent-dependent symbolic perspectives and their relations to theories of mind. The third part of the study is focused on the presentation of one important application of knowledge representation systems in the human-robot interaction context: situated dialogue. Our approach and associated algorithms leading to the interactive grounding of unconstrained verbal communication are presented, followed by several experiments that have taken place both at the Laboratoire d'Analyse et d'Architecture des Systèmes at CNRS, Toulouse and at the Intelligent Autonomous System group at Munich Technical University. The thesis concludes on considerations regarding the viability and importance of an explicit management of the agent's knowledge, along with a reflection on the missing bricks in our research community on the way towards "human level robots"
49

Lecomte, Maxime. "Approche hybride de modélisation explicable du métabolisme des écosystèmes microbiens." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0094.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les communautés microbiennes sont des systèmes complexes composés de diverses espèces de micro-organismes interagissant entre elles et avec leur environnement. La biologie des systèmes offre un cadre pour leur étude, alliant expérimentation, génération de données à haut-débit et leur intégration dans des modèles informatiques. La compréhension de ces communautés passe notamment par celle de leur métabolisme et des échanges de molécules entre espèces susceptibles d’impacter positivement ou négativement chacun des membres. Le métabolisme est un ensemble de réactions biochimiques et peut s’abstraire à l’échelle d’un génome par des réseaux faisant le lien entre les gènes et les réactions d’un organisme. Ces réseaux permettent de construire des modèles métaboliques, représentations informatiques ou mathématiques du comportement des organismes dans des conditions expérimentales. Le passage de l’individu à la communauté, composée de quelques espèces en conditions contrôlées, ou de plusieurs centaines en conditions environnementales, soulève des difficultés méthodologiques dans la construction des modèles. Ce manuscrit de thèse traite de la modélisation du métabolisme et des interactions métaboliques au sein des écosystèmes microbiens en mettant l’emphase sur l’explication des mécanismes cellulaires qui justifient les interactions bactériennes. Des solutions numériques sont majoritairement utilisées - assurant la précision des résultats - mais sont confrontées à l’importante combinatoire engendrée par les interactions bactériennes pour des communautés de grande taille. Les réponses apportées par les approches discrètes surmontent la problématique du passage à l’échelle mais sont limitées à une analyse par paire d’organismes. Afin d’identifier un potentiel ajustement méthodologique - conciliant les avantages des deux démarches, i.e. trouver une approche hybride - une première contribution se focalise sur le développement d’un modèle numérique dynamique et précis d’une communauté fromagère composée de trois souches. Notre stratégie itérative a permis l’intégration de données hétérogènes au moyen d’étapes de raffinement et de calibration dynamique. Ces allers-retours entre la connaissance et le modèle ont assuré la bonne prédiction des concentrations des métabolites dosés en métabolomique ainsi que des densités bactériennes au cours de la cinétique de fabrication du fromage. Dans une seconde contribution, nous proposons un modèle par raisonnement permettant de cibler des potentiels de coopération et de compétition dans des communautés bactériennes. Ce modèle repose sur l’inférence de règles logiques inférées de la biologie pour évaluer et comparer les potentiels d’interaction de communautés. Des potentiels d’interaction spécifiques à des écosystèmes ont été révélés ainsi que la pertinence de son utilisation grâce à sa rapidité d’exécution. Enfin, la troisième contribution est une réflexion portant sur l’enrichissement du modèle logique. Nous proposons un prototype s’appuyant sur l’inférence de règles logiques et permettant de (i) sélectionner la meilleure communauté à partir de contraintes biologiques et (ii) d’apporter une notion temporelle, pouvant influencer les potentiels d’interactions. Par cette thèse, nous avons montré que la construction d’un modèle de modélisation hybride du métabolisme n’est pas nécessaire, mais qu’une approche hybride, utilisant des modèles numériques, pour des communautés de petite taille et des modèles discrets, pour analyser rapidement les communautés de taille réelle semble être pertinente
Microbial communities are complex systems composed of various species of microorganisms interacting with each other and with their environment. Systems biology offers a framework for their study, combining experimentation, high-throughput data generation and the integration of the latter into computer models. Understanding these ecosystems requires the analysis of their metabolism and of the exchange of molecules between members, which can have positive or negative impacts on each other. Metabolism is a set of biochemical reactions that can be represented as a genome-scale metabolic network through the association of genes and reactions in an organism. These networks can be used to build metabolic models, mathematical representations of organism behavior under given environmental conditions. Scaling up to the analysis of a community composed of a few species under controlled conditions, or several hundreds in natural environments, raises methodological difficulties in the construction of models. This thesis manuscript deals with the construction of computational models for the analysis of metabolism and metabolic interactions in microbial ecosystems, with a particular attention on explaining the cellular mechanisms underlying bacterial interactions. Numerical solutions are mainly used - ensuring the accuracy of results - but they face combinatorial issues generated by bacterial interactions in large-scale communities. Discrete approaches overcome this problem, but are limited to pairwise analysis. In order to identify a putative methodological tradeoff reconciling the advantages of both approaches, i.e. finding a hybrid approach, a first contribution focuses on the development of a dynamic and accurate numerical model of a cheese bacterial community composed of three strains. Our iterative strategy enables the integration of heterogeneous data through refinement and dynamic calibration steps. This back-and-forth between knowledge and model ensures the accurate prediction of metabolite concentrations and bacterial densities during cheese production. We propose as a second contribution a reasoning-based model for deciphering cooperative and competitive potentials in bacterial communities. This model relies on the inference of logical rules motivated by biology in order to evaluate and compare community interaction potentials. Ecosystem-specific interactions potentials are retrieved, and the fast execution of the reasoning-based approach facilitates the screening of collections of communities. Finally, the third contribution is a reflection on the enrichment of the logic model. We propose a prototype based on the inference of logical rules, enabling (i) the selection of the best community based on biological constraints and (ii) the inference of a temporal notion, which can impact interaction potentials. Through this thesis, we demonstrate that the construction of a hybrid model of metabolism is not required but that a hybrid approach, using numerical models for small communities and discrete models for rapid analysis of full-size communities, seems to be relevant
50

Bouraoui, Zied. "Inconsistency and uncertainty handling in lightweight description logics." Thesis, Artois, 2015. http://www.theses.fr/2015ARTO0408/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie la dynamique des croyances et la gestion de l’incertitude dans DL-Lite, une des plus importantes familles des logiques de description légères. La première partie de la thèse porte sur la gestion de l’incertitude dans DL-Lite. En premier lieu, nous avons proposé une extension des principaux fragments de DL-Lite pour faire face à l’incertitude associée aux axiomes en utilisant le cadre de la théorie des possibilités. Cette extension est réalisée sans engendrer des coûts calculatoires supplémentaires. Nous avons étudié ensuite la révision des bases DL-Lite possibilistes en présence d’une nouvelle information. Enfin, nous avons proposé un opérateur de fusion lorsque les assertions de ABoxsont fournies par plusieurs sources d’information ayant différents niveaux de priorité. La deuxième partie de la thèse traite le problème de la gestion d’incohérence dans les bases de connaissances DL-Lite. Nous avons étudié, tout d’abord, comment raisonner à partir d’une base DL-Lite standard avec des ABox multiples en introduisant les notions de modificateurs et de stratégies d’inférence. La combinaison des modificateurs et de stratégies d’inférence fournit une liste exhaustive des principales techniques de gestion de l’incohérence. Nous avons proposé ensuite une approche, basée sur un critère de cardinalité, de sélection des réparations, et nous avons identifié les stratégies appropriées pour la gestion de l’incohérence pour les bases DL-Lite stratifiées. Enfin, nous avons effectué une analyse comparative, suivie par des étudesexpérimentales, des différentes techniques de gestion d’incohérence proposées. Finalement, un outil de représentation et de raisonnement à partir des bases DL-Lite possibiliste est réalisé
This thesis investigates the dynamics of beliefs and uncertainty management in DL-Lite, one of the most important lightweight description logics. The first part of the thesis concerns the problem of handling uncertainty in DL-Lite. First, we propose an extension of the main fragments of DL-Lite to deal with the uncertainty associated with axioms using a possibility theory framework without additional extra computational costs. We then study the revision of possibilistic DL-Lite bases when a new piece of information is available. Lastly, we propose a min-based assertional merging operator when assertions of ABox are provided by several sources of information having different levels of priority. The second partof the thesis concerns the problem of inconsistency handling in flat and prioritized DL-Lite knowledge bases. We first propose how to reason from a flat DL-Lite knowledge base, with a multiple ABox, which can be either issued from multiple information sources or resulted from revising DL-Lite knowledge bases. This is done by introducing the notions of modifiers and inference strategies. The combination of modifiers plus inference strategies can be mapped out in order to provide a principled and exhaustive list of techniques for inconsistency management. We then give an approach based on selecting multiple repairs using a cardinality-based criterion, and we identified suitable strategies for handling inconsistencyin the prioritized case. Lastly, we perform a comparative analysis, followed by experimental studies, of the proposed inconsistency handling techniques. A tool for representing and reasoning in possibilistic DL-Lite framework is implemented

До бібліографії