Dissertations / Theses on the topic 'Résumés de bases de connaissances'

To see the other types of publications on this topic, follow the link: Résumés de bases de connaissances.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Résumés de bases de connaissances.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rihany, Mohamad. "Keyword Search and Summarization Approaches for RDF Dataset Exploration." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG030.

Full text
Abstract:
Un nombre croissant de sources de données sont publiées sur le web, exprimées dans les langages proposés par le W3C comme RDF, RDF (S) et OWL. Ces sources représentent un volume de données sans précédent disponible pour les utilisateurs et les applications. Afin d’identifier les sources les plus pertinentes et de les utiliser, il est nécessaire d’en connaître le contenu, par exemple au moyen de requêtes écrites en Sparql, le langage d’interrogation proposé par le W3C pour les sources de données RDF. Mais cela nécessite, en plus de la maîtrise du langage Sparql, de disposer de connaissances sur le contenu de la source en termes de ressources, classes ou propriétés qu’elle contient. L’objectif de ma thèse est d’étudier des approches permettant de fournir un support à l’exploration d’une source de données RDF. Nous avons proposé deux approches complémentaires, la recherche mots-clés et le résumé d’un graphe RDF.La recherche mots-clés dans un graphe RDF renvoie un ou plusieurs sous-graphes en réponse à une requête exprimée comme un ensemble de termes à rechercher. Chaque sous-graphe est l’agrégation d’éléments extraits du graphe initial, et représente une réponse possible à la requête constituée par un ensemble de mots-clés. Les sous-graphes retournés peuvent être classés en fonction de leur pertinence. La recherche par mot-clé dans des sources de données RDF soulève les problèmes suivants : (i) l’identification pour chaque mot-clé de la requête des éléments correspondants dans le graphe considéré, en prenant en compte les différences de terminologies existant entre les mots-clés et les termes utilisés dans le graphe RDF, (ii) la combinaison des éléments de graphes retournés pour construire un sous-graphe résultat en utilisant des algorithmes d’agrégation capable de déterminer la meilleure façon de relier les éléments du graphe correspondant à des mots-clés, et enfin (iii), comme il peut exister plusieurs éléments du graphe qui correspondent à un même mot-clé, et par conséquent plusieurs sous-graphes résultat, il s’agit d’évaluer la pertinence de ces sous-graphes par l’utilisation de métriques appropriées. Dans notre travail, nous avons proposé une approche de recherche par mot-clé qui apporte des solutions aux problèmes ci-dessus.Fournir une vue résumée d’un graphe RDF peut être utile afin de déterminer si ce graphe correspond aux besoins d’un utilisateur particulier en mettant en évidence ses éléments les plus importants ; une telle vue résumée peut faciliter l’exploration du graphe. Dans notre travail, nous avons proposé une approche de résumé originale fondée sur l’identification des thèmes sous-jacents dans un graphe RDF. Notre approche de résumé consiste à extraire ces thèmes, puis à construire le résumé en garantissant que tous les thèmes sont représentés dans le résultat. Cela pose les questions suivantes : (i) comment identifier les thèmes dans un graphe RDF ? (ii) quels sont les critères adaptés pour identifier les éléments les plus pertinents dans les sous-graphes correspondants à un thème ? (iii) comment connecter les éléments les plus pertinents pour créer le résumé d’une thème ? et enfin (iv) comment générer un résumé pour le graphe initial à partir des résumés de thèmes ? Dans notre travail, nous avons proposé une approche qui fournit des réponses à ces questions et qui produit une représentation résumée d’un graphe RDF garantissant que chaque thème y est représenté proportionnellement à son importance dans le graphe initial
An increasing number of datasets are published on the Web, expressed in the standard languages proposed by the W3C such as RDF, RDF (S), and OWL. These datasets represent an unprecedented amount of data available for users and applications. In order to identify and use the relevant datasets, users and applications need to explore them using queries written in SPARQL, a query language proposed by the W3C. But in order to write a SPARQL query, a user should not only be familiar with the query language but also have knowledge about the content of the RDF dataset in terms of the resources, classes or properties it contains. The goal of this thesis is to provide approaches to support the exploration of these RDF datasets. We have studied two alternative and complementary exploration techniques, keyword search and summarization of an RDF dataset. Keyword search returns RDF graphs in response to a query expressed as a set of keywords, where each resulting graph is the aggregation of elements extracted from the source dataset. These graphs represent possible answers to the keyword query, and they can be ranked according to their relevance. Keyword search in RDF datasets raises the following issues: (i) identifying for each keyword in the query the matching elements in the considered dataset, taking into account the differences of terminology between the keywords and the terms used in the RDF dataset, (ii) combining the matching elements to build the result by defining aggregation algorithms that find the best way of linking matching elements, and finally (iii), finding appropriate metrics to rank the results, as several matching elements may exist for each keyword and consequently several graphs may be returned. In our work, we propose a keyword search approach that addresses these issues. Providing a summarized view of an RDF dataset can help a user in identifying if this dataset is relevant to his needs, and in highlighting its most relevant elements. This could be useful for the exploration of a given dataset. In our work, we propose a novel summarization approach based on the underlying themes of a dataset. Our theme-based summarization approach consists of extracting the existing themes in a data source, and building the summarized view so as to ensure that all these discovered themes are represented. This raises the following questions: (i) how to identify the underlying themes in an RDF dataset? (ii) what are the suitable criteria to identify the relevant elements in the themes extracted from the RDF graph? (iii) how to aggregate and connect the relevant elements to create a theme summary? and finally, (iv) how to create the summary for the whole RDF graph from the generated theme summaries? In our work, we propose a theme-based summarization approach for RDF datasets which answers these questions and provides a summarized representation ensuring that each theme is represented proportionally to its importance in the initial dataset
APA, Harvard, Vancouver, ISO, and other styles
2

Hébrail, Georges. "Définition de résumés et incertitude dans les grandes bases de données." Paris 11, 1987. http://www.theses.fr/1987PA112223.

Full text
Abstract:
Deux problèmes en apparence distincts sont abordés dans cette étude : la construction de résumés d'une base de données et la modélisation des erreurs contenues dans une base de données. Un modèle permettant de construire des résumés d'une base de données est proposé. Ces résumés sont stockés physiquement dans la base et maintenus à jour automatiquement et à faible coût eu cours de l'évolution du contenu de la base. Ils permettent alors d'interroger la base de données à un niveau synthétique avec un temps de réponse indépendant de la taille de la base. Il est montré que ces résumés trouvent de multiples applications dans le domaine des bases de données interrogation de la base à un niveau synthétique, optimisation des requêtes, confidentialité des données, vérification de contraintes d'intégrité, bases de données distribuées. Un modèle de représentation des erreurs contenues dans une base de données est ensuite proposé. Ce modèle, basé sur une approche probabiliste, permet d'évaluer l'impact des erreurs contenues dans la base sur le résultat es requêtes qui lui sont adressées. Les liens entre ces deux problèmes sont mis en évidence : une même notion est utilisée pour définir les résumés et l'incertitude, et la construction de résumés particuliers est nécessaire pour évaluer l'impact des erreurs sur le résultat d'une requête. L'étude est indépendante du modèle de données utilisé (relationnel, réseau, hiérarchique). Une application des résultats de cette étude dans le cadre du modèle relationnel est cependant présentée. Le domaine privilégié d'application des résultats de cette étude est celui des bases de données contenant un volume important de données
Two apparently different problems are addressed in this study: building summaries of a database and modelling errors contained in a database. A model of summaries of a database is proposed. The summaries are physically stored in the database as redundant data and automatically updated when changes occur in the database. The cost of the summaries update is shown to be low. Lt is then possible to extract synthetic information from the database with a response time which is independent of the size of the database. The multiple applications of summaries in a database are also presented: extraction of synthetic information, query optimisation, data security, check of integrity constraints, distributed databases. A model of representation of errors contained in a database is then proposed. The model, based on a probabilistic approach, leads to a computation of the effect of errors on the result of database queries. The links which exist between these two problems are pointed out: a single concept is used both for the definition of the summaries and for the representation of errors, and particular summaries are required to compute the error associated to a query. The study is independent of the data model (relational, network, hierarchical). The results of the study are nevertheless applied to the relational model. The best area for application of the developped concepts is the area of very large databases
APA, Harvard, Vancouver, ISO, and other styles
3

Cicchetti, Rosine. "Contribution à la modélisation des résumés dans les bases de données statistiques." Nice, 1990. http://www.theses.fr/1990NICE4394.

Full text
Abstract:
Cette thèse est consacrée aux problèmes de la modélisation des résumés dans les bases de données statistiques. Il est reconnu qu'une des fonctionnalités essentielles des systèmes de gestion de bases de données statistiques est la création et la manipulation des résumés statistiques calculés à partir des données détaillées mais aussi principalement à partir d'autres résumés. Nous décrivons formellement un modèle de résumés statistiques basés sur une structure de données multi-dimensionnelle, appelée table statistique complexe (TSC), dotée d'un ensemble d'opérateurs de manipulation. Cette structure naturelle, compacte et extensible de résumés à sémantique arbitrairement complexe. Après une identification des besoins de manipulation spécifiques des statisticiens, nous proposons une classification générique des opérateurs définis, qui englobe des possibilités de composition-décomposition, de transposition, de dérivation et d'affinement-élargissement. Les premières permettent la création de résumés à sémantique de plus en plus complexe ou au contraire de plus en plus simple. À travers les transpositions, des réorganisations dynamiques de la structure sont permises ; quant aux dérivations, elles offrent, à partir des résumés existants, des possibilités de création de nouveaux résumés par agrégation ou par calcul. L’interrogation des résumés peut être effectuée par le biais des opérateurs d'affinement et d'élargissement. L’ensemble de ces operateurs formellement définis et munis de leurs propriétés intrinsèques et de coopération constitue une première tentative de définition d'une algèbre de résumés à sémantique complexe
APA, Harvard, Vancouver, ISO, and other styles
4

Castillo, Reitz Maria. "Etude d'un système d'extraction et présentation de résumés pour les bases de données." Montpellier 2, 1994. http://www.theses.fr/1994MON20277.

Full text
Abstract:
Ce travail traite de la creation et la representation de resumes d'information issues d'une base de donnees. Deux etapes cles sont particulierement examinees: la premiere concerne l'extraction proprement dite d'un resume qui resulte en general d'un processus d'agregation de donnees brutes. La seconde releve de la presentation de l'information resumee, i. E. Sa mise en forme. Nous avons developpe une application appelee ove (observatoire de la vie etudiante) exploitee par la cellule d'information de l'universite de montpellier ii pour repondre aux demandes du ministere de l'education nationale. Un de ses objectifs est la definition d'un langage qui puisse definir et representer aisement des donnees resumees selon une forme multidimensionnelle ou graphique. Un modele du systeme ove a ete elabore ; il definit la notion de resume et caracterise precisement les operations realisees par l'application. Ce modele se base sur une approche fonctionnelle typee d'un modele relationnel etendu, notamment par une operation d'agregation par filtrage ou les relations a attributs calcules
APA, Harvard, Vancouver, ISO, and other styles
5

Lopez, Guillen Karla Ivon. "Contributions aux résumés visuels des bases de données géographiques basés sur les chorèmes." Lyon, INSA, 2010. http://www.theses.fr/2010ISAL0055.

Full text
Abstract:
En traitant des situations complexes, comme dans les domaines politiques, économiques et démographiques, l’utilisation de métaphores visuelles représente une approche très efficace pour aider les utilisateurs à découvrir des relations et des connaissances nouvelles. La cartographie traditionnelle est un outil essentiel pour décrire les faits et les relations concernant le territoire. Les concepts géographiques sont associés aux symboles graphiques qui aident les lecteurs à obtenir une compréhension immédiate des données représentées. A partir d’une base de données géographiques, il est courant d’extraire de multiples cartes (restitution cartographique de l’ensemble des données). Ma thèse se situe dans un projet de recherche international dont l’objectif est d’étudier une solution cartographique innovante capable de représenter à la fois l’existant, la dynamique, le mouvement et les changements de manière à extraire des résumés visuels synthétiques de bases de données géographiques. La solution proposée est basée sur le concept de chorème de Brunet défini comme une schématisation d’un territoire. Cet outil méthodologique représente une synthèse immédiate des données pertinentes et donne aux utilisateurs experts un aperçu global des objets et des phénomènes. Basé sur des études préliminaires, en premier lieu, nous fournissons une définition formelle et la classification des chorèmes en termes de structure et de sens, afin d’uniformiser à la fois la construction et l’utilisation de ces chorèmes. Puis une phase de fouille de données est lancée afin d’extraire les patterns les plus significatifs, lesquels seront la base des chorèmes. Ensuite, un système permettant de générer des cartes chorèmatiques à partir d’ensembles de données disponibles est décrit et un langage dérivé du XML, appelé ChorML spécifié, permettant la communication entre les modules du système (fouille de données pour extraire les chorèmes, visualisation des chorèmes)
[When dealing with complex situations, as in political, economic and demographic trends, use of visual metaphors ls a very effective approach to help users discover relationships and new knowledge. The traditional cartography is an essential tool to describe the facts and relations in the territory. The geographic concepts are associated with graphic symbols that help readers get an immediate understanding of the data represented. From a geographic database, il is common to extract multiple maps (cartographic restitution of ali data). My thesis ls an international research project whose objective ls to study an innovative mapping solution thal can represent both the existing situation, dynamics, movement and change in order to extract visual resumes synthetic of geographic data bases. The proposed solution is based on the concept of chorem defined by Brunet as a mapping of a territory. This represents a methodological tool instant snapshot of relevant information and gives expert users an overview of objects and phenomena. Based on preliminary, first, we provide a formal definition and classification of chorems in terms of structure and meaning to standardize both the construction and use of these chorems. Then a phase of data mining is launched to extract the most significant patterns, which will be the basis of chorems. Then, a system to general chorématique maps from available data sets is described and an XML-based language, called ChorML specified, allowing communication between the modules of the system (data mining to extract chorems, visualization of chorems Level 0 of the language corresponds to the content of the database by GML standard, then the level1 is the one who will describe the patterns extracted and chorems, and finally level 2 ls the visualisation by the SVG standard. In addition, Level integrals information such as external information (eg, names of seas and surrounding countries) and topological constraints to meet in the display: eg. ]
APA, Harvard, Vancouver, ISO, and other styles
6

Lafon, Philippe. "Méthodes de vérification de bases de connaissances." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00520738.

Full text
Abstract:
Nous présentons dans cette thèse les travaux réalisés concernant la vérification automatique de Bases de Connaissances de Systèmes Experts. Cette étude comporte un panorama des systèmes existants, puis deux parties indépendantes. La première traite de la Cohérence de bases de règles d'ordre Zéro Plus. Nous présentons le système MELOMIDIA, qui fournit, quand elles existent, les bases de faits initiales conduisant à des déductions contradictoires. Le système permet aussi d'améliorer l'exploitation de la base de règles analysée (élimination des règles inutiles, filtrage de la base de faits initiale), et de visualiser les contradictions qu'elle contient (traceur d'incohérences). La seconde concerne la vérification de bases de règles d'ordre Un. Elle consiste à s'assurer que la base respecte des spécifications exprimées sous la forme de propriétés attachées aux prédicats présents dans la base de règles. Ces propriétés sont fournies suivant un modèle qui distingue quatre niveaux de description des prédicats : les niveaux syntaxique, physique, mathématique et fonctionnel.
APA, Harvard, Vancouver, ISO, and other styles
7

Lafon, Philippe. "Methodes de verification de bases de connaissances." Marne-la-vallée, ENPC, 1991. http://www.theses.fr/1991ENPC9119.

Full text
Abstract:
Nous presentons dans cette these les travaux realises concernant la verification automatique de bases de connaissances de systemes experts. Cette etude comporte un panorama des systemes existants, puis deux parties independantes. La premiere traite de la coherence de bases de regles d'ordre zero plus. Nous presentons le systeme melomidia, qui detecte la possibilite de deduire des faits contradictoires lors d'un processus d'inference a partir d'hypotheses valides. Melomidia fournit aussi, quand elles existent, les bases de faits initiales conduisant a des deductions contradictoires, et les regles redondantes ou indeclenchables. La seconde s'interesse a la verification de bases de regles d'ordre un. Celle-ci est concue comme la confrontation de deux groupes de connaissances: d'une part la base de regles, d'autre part une liste de proprietes attachees aux predicats utilises dans cette base. Les connaissances du deuxieme type, habituellement implicites, sont fournies par l'utilisateur. Il utilise pour cela un modele de description des predicats, dont la structure s'inspire des travaux en methodologie de conception de systemes informatiques
APA, Harvard, Vancouver, ISO, and other styles
8

Naoum, Lamiaa. "Un modèle multidimensionnel pour un processus d'analyse en ligne de résumés flous." Nantes, 2006. http://www.theses.fr/2006NANT2101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ferrané, Isabelle. "Bases de donnees et de connaissances lexicales morphosyntaxiques." Toulouse 3, 1991. http://www.theses.fr/1991TOU30157.

Full text
Abstract:
Le projet bdlex de bases de donnees et de connaissances lexicales du francais ecrit et parle a ete developpe pour repondre aux forts besoins lexicaux des differents domaines et applications du traitement du langage naturel: le traitement automatique de la parole et des textes, la neuropsycholinguistique. . . Dans le cadre de ce projet, nous avons participe a la mise en uvre d'une composante lexicale centree sur la representation des informations morphosyntaxiques et phonologiques qui caracterisent les mots. Nous avons egalement complete ce lexique d'un ensemble d'outils linguistiques regroupes au sein de la composante morphosyntaxique morgan (morphologie et generation et analyse). La premiere partie de ce memoire presente rapidement le contexte de developpement des bases de donnees lexicales. La deuxieme partie est consacree a la definition 'un modele linguistique le mieux adaptee en vue de traitements automatiques. Pour cela nous procedons a l'etude de differents travaux et theories linguistiques. Nous degageons ensuite un ensemble de principes modelisant le fonctionnement des processus morphologiques flexionnels puis derivationnels, mis en uvre par tout locuteur de langue francaise. Ces principes ne traduisent que l'aspect morphosyntaxique regulier, c'est pourquoi nous les avons completes de maniere a permettre le traitement des irregularites et des exceptions. La troisieme partie decrit la phase de developpement d'une composante lexicale de grande taille. Les bases de donnees se sont revelees etre le moyen le plus adapte pour repondre aux problemes de gestion et de coherence de donnees alors rencontres. Les differents traitements morphologiques mis en uvre et les bases de regles associees sont presentes a travers la realisation de modules de generation et d'analyse morphologiques flexionnelles, ainsi que de generation de mots derives. Cet environnement linguistique permet la generation de sous-lexiques pour diverses applications: reconnaissance et synthese automatiques de la parole, correction orthographique, recherche fondamentale en lexicologie, realisation de tests et d'exercices en neuropsycholinguistique
APA, Harvard, Vancouver, ISO, and other styles
10

Nesta, Lionel. "Cohérence des bases de connaissances et changement technique." Grenoble 2, 2001. http://www.theses.fr/2001GRE21003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ayel, Marc. "Détection d’incohérences dans les bases de connaissances : sacco." Chambéry, 1987. http://www.theses.fr/1987CHAMS006.

Full text
Abstract:
La sémantique de la cohérence d'une base de connaissances de système expert s'exprime a l'aide d'un modèle conceptuel de cette base et de contraintes d’intégrité. Grâce a ce modèle conceptuel sont définis, d'une part les contrôles statiques portant sur chacune des parties de la base de connaissances et, d'autre part, les contrôles dynamiques portant sur les bases de connaissances qui pourraient être déduites grâce aux connaissances déductives. Une connaissance experte particulière permet de sélectionner les contrôles dynamiques les plus pertinents : ce sont les seuls a être effectues. L'ensemble de ces contrôles est implémenté dans le système Sacco : système d'acquisition contrôlée a connaissances cohérentes
APA, Harvard, Vancouver, ISO, and other styles
12

Ayel, Marc. "Détection d'incohérences dans les bases de connaissances SACCO /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602486h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Desreumaux, Marc. "Détection d'incohérences potentielles dans des bases de connaissances." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37604506s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Favier, Valerie. "Manipulation d'objets dynamiques dans les bases de connaissances." S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00335931.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles." Nantes, 2001. http://www.theses.fr/2001NANT2099.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
APA, Harvard, Vancouver, ISO, and other styles
16

Dussaux, Gaétan. "Ironweb - construction collective de bases de connaissances sur internet." INSA de Rouen, 2001. http://www.theses.fr/2001ISAM0004.

Full text
Abstract:
Les principaux points d'entrees sur internet aujourd'hui sont les moteurs de recherche et les annuaires. Les moteurs de recherche sont victimes de leur puissance d'indexation et les resultats sont par consequent trop bruites. Les annuaires quant a eux sont plus qualitatifs mais indexent de l'information d'ordre generale. Ils sont souvent victimes de silence. Dans le cadre de notre these, il nous a paru interessant de reflechir sur la facon dont les internautes utilisent ces moteurs, et plus generalement, la facon dont ils naviguent sur la toile ; ceci afin d'extraire automatiquement l'information pertinente disponible. Ironweb est un outil qui collecte, exploite et factorise les differentes experiences de navigation des membres d'un groupe, pour mieux identifier les informations pertinentes du web correspondant au domaine d'expertise du groupe. L'objectif de cette these est de proposer un systeme (ironweb) grace auquel des groupes d'utilisateurs participent de facon transparente et collective a la selection de documents pertinents sur la toile, afin de construire des bases de connaissances specifiques a des thematiques. La demarche generale consiste a observer les utilisateurs dans leur processus de recherche d'information sur la toile, et a s'appuyer sur ces observations pour indexer les documents par rapport a leur utilisation. Le systeme ironweb repose sur un serveur de signets, lequel permet au groupe de constituer sa propre memoire de navigation sous forme d'une base de cas. La consultation de la base de connaissances peut se faire via une interrogation par mots cles (indexation en texte integral du contenu des pages web pointees par les signets), via une navigation type annuaire dans la base (fusion et regroupement des classements hierarchiques des signets des membres du groupe) ou via des mecanismes de rapc. Le tout est accessible au moyen d'un simple navigateur pour faciliter les acces nomades et l'adhesion des utilisateurs. Nous proposons une experimentation du systeme ironweb a l'insa de rouen. Notre objectif est d'utiliser les differentes navigations de l'ensemble des enseignants d'une section ou d'un departement dans le but d'extraire le plus automatiquement possible l'information pertinente de la toile concernant le domaine d'enseignement. Le systeme peut ainsi construire sa propre base de connaissances du domaine et la mettre a disposition des etudiants pour leur faciliter les recherches sur internet. Notre travail peut s'appliquer a toute structure qui souhaite mettre en commun le resultat de differentes recherches sur le web, comme les cellules de veille sur internet, les societes d'intelligence economique, les ssii
APA, Harvard, Vancouver, ISO, and other styles
17

Bendou, Amar. "Exécution symbolique et bases de connaissances : Le systeme SVRG." Chambéry, 1998. http://www.theses.fr/1998CHAM5010.

Full text
Abstract:
Dans cette thèse nous nous intéressons à quatre aspects des bases de connaissances : la vérification de la cohérence et de la complétude, l'inspection, la réutilisation de connaissances ainsi que la génération de données de test. Notre approche consiste à voir une base de règles comme un programme réducteur de domaines. C’est à dire qu'à partir d'un ensemble de variables d'entrées auxquelles sont associés des domaines de valeurs, on déduit les domaines de valeurs des variables de sortie et les relations directes qui les lient aux variables d'entrée. Cette déduction est effectuée en utilisant une méthode d'exécution symbolique basée sur la résolution des contraintes des différents chemins d'exécution qu'une base de règles peut engendrer. Cette exécution symbolique permet d'obtenir des résultats nouveaux dans trois domaines, celui de la vérification statique et dynamique de la cohérence et de la complétude, celui de la réduction de bases de connaissances afin de créer des vues pour inspecter cette base ou en réutiliser des composants et enfin le domaine de la génération de données de test. L’étude que nous avons menée nous a conduit à réaliser le système SVRG qui a été testé sur des bases de connaissances issues du domaine industriel.
APA, Harvard, Vancouver, ISO, and other styles
18

Kinkielele, Dieudonné. "Vérification de la cohérence des bases de connaissances floues." Chambéry, 1994. http://www.theses.fr/1994CHAMS029.

Full text
Abstract:
La plupart des méthodes et outils, développés pour vérifier la cohérence des bases de connaissances, se sont situées dans des formalismes proches de la logique classique car, cela permettait de disposer d'un cadre formel rigoureux et relativement bien défini. Or, si celle-ci se prête bien à la modélisation des connaissances dans des domaines assez bien formalisés, elle ne permet pas de représenter des connaissances de sens commun. Il est ainsi impossible en logique classique de représenter (et de raisonner avec) des informations imparfaites. C'est ainsi que de nouveaux formalismes de représentation de connaissances sont apparus permettant ainsi de manipuler des informations de sens courant. Nous nous intéressons dans cette thèse au problème de la vérification de la cohérence des bases de connaissances imprécises ou incertaines. Le cadre choisi est le raisonnement approximatif basé sur la théorie des possibilités et celle des sous-ensembles flous. Dans ce cadre, nous définissons un modèle conceptuel de cohérence, c'est-à-dire, un ensemble de propriétés que doivent vérifier les bases de connaissances cohérentes. Notre système permet de vérifier la cohérence statique d'une base de connaissances, c'est-à-dire la cohérence des différentes entités structurelles de la base. Pour la vérification dynamique de la base de connaissances, nous tirons parti des travaux qui ont été menés dans le cadre de la résolution des équations des relations floues et mettons au point un schéma abductif flou. Ce schéma permet de générer les bases de faits initiales qui, confrontées aux contraintes de cohérence définies au moment de l'élaboration de la base de connaissances, permettent de constater l'incohérence de la base de connaissances. A contrario, l'absence d'une telle base de faits permet d'établir la cohérence dynamique de la base de connaissances.
APA, Harvard, Vancouver, ISO, and other styles
19

Galarraga, Del Prado Luis. "Extraction des règles d'association dans des bases de connaissances." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0050/document.

Full text
Abstract:
Le développement rapide des techniques d’extraction d’information a permis de construire de vastes bases de connaissances généralistes. Ces bases de connaissances contiennent des millions de faits portant sur des entités du monde réel, comme des personnes, des lieux, ou des organisations. Ces faits sont accessibles aux ordinateurs, et leur permettent ainsi de “comprendre” le monde réel. Ces bases trouvent donc de nombreuses applications, notamment pour la recherche d’information, le traitement de requêtes, et le raisonnement automatique. Les nombreuses informations contenues dans les bases de connaissances peuvent également être utilisées pour découvrir des motifs intéressants et fréquents dans les données. Cette tâche, l’extraction de règles d’association, permet de comprendre la structure des données ; les règles ainsi obtenues peuvent être employées pour l’analyse de données, la prédiction, et la maintenance de données, entre autres applications. Cette thèse présente deux contributions principales. En premier lieu, nous proposons une nouvelle méthode pour l’extraction de règles d’association dans les bases de connaissances. Cette méthode s’appuie sur un modèle d’extraction qui convient particulièrement aux bases de connaissances potentiellement incomplètes, comme celles qui sont extraites à partir des données du Web. En second lieu, nous montrons que l’extraction de règles peut être utilisée sur les bases de connaissances pour effectuer de nombreuses tâches orientées vers les données. Nous étudions notamment la prédiction de faits, l’alignement de schémas, la mise en forme canonique de bases de connaissances ouvertes, et la prédiction d’annotations de complétude
The continuous progress of information extraction (IE) techniques has led to the construction of large general-purpose knowledge bases (KBs). These KBs contain millions of computer-readable facts about real-world entities such as people, organizations and places. KBs are important nowadays because they allow computers to “understand” the real world. They are used in multiple applications in Information Retrieval, Query Answering and Automatic Reasoning, among other fields. Furthermore, the plethora of information available in today’s KBs allows for the discovery of frequent patterns in the data, a task known as rule mining. Such patterns or rules convey useful insights about the data. These rules can be used in several applications ranging from data analytics and prediction to data maintenance tasks. The contribution of this thesis is twofold : First, it proposes a method to mine rules on KBs. The method relies on a mining model tailored for potentially incomplete webextracted KBs. Second, the thesis shows the applicability of rule mining in several data-oriented tasks in KBs, namely facts prediction, schema alignment, canonicalization of (open) KBs and prediction of completeness
APA, Harvard, Vancouver, ISO, and other styles
20

Galárraga, Del Prado Luis. "Extraction des règles d'association dans des bases de connaissances." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0050.

Full text
Abstract:
Le développement rapide des techniques d’extraction d’information a permis de construire de vastes bases de connaissances généralistes. Ces bases de connaissances contiennent des millions de faits portant sur des entités du monde réel, comme des personnes, des lieux, ou des organisations. Ces faits sont accessibles aux ordinateurs, et leur permettent ainsi de “comprendre” le monde réel. Ces bases trouvent donc de nombreuses applications, notamment pour la recherche d’information, le traitement de requêtes, et le raisonnement automatique. Les nombreuses informations contenues dans les bases de connaissances peuvent également être utilisées pour découvrir des motifs intéressants et fréquents dans les données. Cette tâche, l’extraction de règles d’association, permet de comprendre la structure des données ; les règles ainsi obtenues peuvent être employées pour l’analyse de données, la prédiction, et la maintenance de données, entre autres applications. Cette thèse présente deux contributions principales. En premier lieu, nous proposons une nouvelle méthode pour l’extraction de règles d’association dans les bases de connaissances. Cette méthode s’appuie sur un modèle d’extraction qui convient particulièrement aux bases de connaissances potentiellement incomplètes, comme celles qui sont extraites à partir des données du Web. En second lieu, nous montrons que l’extraction de règles peut être utilisée sur les bases de connaissances pour effectuer de nombreuses tâches orientées vers les données. Nous étudions notamment la prédiction de faits, l’alignement de schémas, la mise en forme canonique de bases de connaissances ouvertes, et la prédiction d’annotations de complétude
The continuous progress of information extraction (IE) techniques has led to the construction of large general-purpose knowledge bases (KBs). These KBs contain millions of computer-readable facts about real-world entities such as people, organizations and places. KBs are important nowadays because they allow computers to “understand” the real world. They are used in multiple applications in Information Retrieval, Query Answering and Automatic Reasoning, among other fields. Furthermore, the plethora of information available in today’s KBs allows for the discovery of frequent patterns in the data, a task known as rule mining. Such patterns or rules convey useful insights about the data. These rules can be used in several applications ranging from data analytics and prediction to data maintenance tasks. The contribution of this thesis is twofold : First, it proposes a method to mine rules on KBs. The method relies on a mining model tailored for potentially incomplete webextracted KBs. Second, the thesis shows the applicability of rule mining in several data-oriented tasks in KBs, namely facts prediction, schema alignment, canonicalization of (open) KBs and prediction of completeness
APA, Harvard, Vancouver, ISO, and other styles
21

Arab, Mabrouka Sabiha. "Représentation des connaissances dans la logique trivalente de Lukasiewicz et structuration des bases de connaissances." Grenoble 2, 1993. http://www.theses.fr/1993GRE21006.

Full text
Abstract:
Ce travail concerne la representation des connaissances incompletes et incertaines dans la logique trivalente de lukasiewicz et la definition d'un systeme de gestion de base de connaissances correspondant au couplage systeme expert systeme de gestion de base de donnees. Apres une comparaison de la logique trivalente de lukasiewicz avec la logique classique, la logique trivalente de kleene et la logique trivalente de bochvar, nous presentons le calcul propositionnel et le calcul des predicats de cette logique. Le passage de la logique trivalente de lukasiewicz a la programmation logique est obtenu apres l'etude de la skolemisation des formules trivalentes et une adaptation du demonstrateur de theoremes de robinson a la logique trivalente de lukasiewicz. En presence de connaissances incompletes, l'hypothese du monde ferme n'est plus valable. Nous avons, en consequence, defini une regle d'inference non monotone pour la resolution des buts de la forme "il existe x tel qu non (p(x))". L'approche choisie est traitee en trois etapes : construction d'un programme negatif, resolution de buts negatifs dans ce programme et resolution des buts positifs avec la regle classique de la negation par l'echec. En suivant la demarche de mcdermott, nous avons etendu la logique trivalente de lukasiewizc a une logique non-monotone en definissant une deuxieme regle d'inference non-monotone. Le systeme qui en resulte garantit l'existence d'une extension non-monotone pour une categorie de theories, ce qui n'est pas le cas dan la logique modale non-monotone de mcdermott. L'unicite d'une telle extension
This work concerns uncertain and incomplete knowledge representation in three-valued logic of lukasiewicz and knowledge base management system based on coupling dbms and expert system. We compare three-valued logic of lukaciewicz with the classical one and with three-valued logics of kleene and bochvar. Propositional and predicate calculus are presented. By studing skolemisation of three-valued formulas and adaptation of the robinson's theorem proving, we obtain the procedure for passing to logic programming. The hypothese of incomplete knowledge invalidate the hypothese of closed world, in consequence, we define a non-monotonic rule for the resolution of goals as "it exists on x such that not (p(x)". The choosen approach needs three steps : construction of a negatif program, resolution of the negatif goal in this program and resolution of the positif program, resolution of the negatif goal in this program and resolution of the positif goals using the classical rule of negation as failure. Following mcdermott's approach, we extend three-valued logic of lukasiewicz to a non-monotonic one by giving a second non-monotonic inference rule. The resulting system guarantees a non-monotonic extension existence, which is not the case in mcdermott's approach. Unicity of this extension is not verified. So, we propose knowledge base structuration to describe different world. This structuration
APA, Harvard, Vancouver, ISO, and other styles
22

BARRIERE, JEAN-LUC. "Detection d'anomalies dans les bases de connaissances : le systeme score." Paris 6, 1993. http://www.theses.fr/1993PA066507.

Full text
Abstract:
Les methodes de verifications de systemes a base de connaissances se heurtent au probleme du temps de calcul. Pour contourner ce probleme, nous avons choisi de developper un outil de diagnostic capable d'expliquer une erreur donnee. Un processus de diagnostic compare un comportement de reference a un comportement effectif. Les systemes a base de connaissances posent un probleme puisque le comportement de reference n'est pas connu. Nous avons donc introduit la notion de schema d'organisation, qui associe une organisation a un comportement, ce qui conduit a proposer un principe de diagnostic en trois etapes. Au cours de la premiere etape, le developpeur decrit un symptome caracteristique du comportement effectif. La seconde etape explicite le comportement de reference en reconnaissant le schema choisi pour organiser la base analysee. La troisieme etape detecte une anomalie en recherchant les violations de contraintes d'organisation imposees par le schema reconnu. La maquette score a ete developpee et testee sur deux bases differentes. La premiere sert a reconnaitre le comportement d'un pilote d'avion et contient 53 regles. La seconde est la maquette score elle-meme et comporte 185 regles. Sur l'ensemble des cas d'erreur traites, le principe de diagnostic s'est avere satisfaisant
APA, Harvard, Vancouver, ISO, and other styles
23

Corby, Olivier. "Un tableau réflexif pour la coopération de bases de connaissances." Nice, 1988. http://www.theses.fr/1988NICE4224.

Full text
Abstract:
Les systèmes multi expert devraient permettre de concevoir des systèmes modulaires. Les architectures de tableau font partie des premières approches en multi expertise. La réflexivité permet de représenter dans un même formalisme des connaissances sur le domaine d'expertise et des connaissances en contrôle. Un tableau réflexif a été réalisé. Il est entièrement programmé sous forme de règles et d'objets, à l'aide du générateur de systèmes experts SMECI de l'INRIA
APA, Harvard, Vancouver, ISO, and other styles
24

Fauconnet, Cécile. "La structuration des bases de connaissances des entreprises de défense." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E040.

Full text
Abstract:
Dans ce travail, nous défendons la thèse que les entreprises de défense, de par la nature de leur activité, ont un processus d’innovation singulier. Nous mobilisons la conception de la base de connaissances d’Henderson & Clark [1990]. Cette base est composée des briques, i.e. les plus petites unités de connaissances manipulées et de l’architecture des connaissances, i.e. la manière dont ces briques fonctionnent ensemble. Notre travail empirique repose sur l’analyse du processus d’innovation technologique des entreprises ayant une activité de défense. Les deux premiers chapitres étudient de la contribution des connaissances scientifiques aux innovations technologiques de défense. Le premier chapitre aborde cette question sous l’angle des technologies dites “de défense” alors que le deuxième chapitre s’attache à distinguer les entreprises de défense des entreprises civiles au regard de leur intégration de connaissances scientifiques dans leur processus d’innovation. Ces chapitres mettent en avant l’importance des connaissances scientifiques pour l’innovation militaire. Le troisième chapitre s’intéresse à la structure de la base de connaissances des entreprises de défense à l’aide des indicateurs issues de la littérature sur la cohérence technologique [Nesta & Saviotti, 2005, 2006]. Nos résultats de ce chapitre montrent l’importance de la nature exploratrice de la base de connaissances des entreprises de défense, i.e. l’importance de réaliser des connexions technologiques originales. Enfin, le dernier chapitre questionne l’influence des caractéristiques des bases de connaissances des entreprises, et plus particulièrement des entreprises de défense, sur la performance du processus d’innovation technologique. Ce chapitre montre la spécificité des bases de connaissances des entreprises de défense et son influence sur la performance de leur processus d’innovation technologique
In this research, we defend the thesis that defense companies, by the nature of their activity, have a unique innovation process. We are mobilizing the concept of knowledge base developed by Henderson & Clark [1990] knowledge base. This database is composed of the components, i.e. the smallest units of knowledge manipulated and the architectural knowledge, i.e. the way these bricks work together. Our empirical work is based on the analysis of the technological innovation process of firms with a defense activity. The first two chapters examine the contribution of scientific knowledge to defense technological innovations. The first chapter addresses this issue from the perspective of so-called “defense” technologies, while the second chapter focuses on distinguishing defense companies from civil companies in terms of their integration of scientific knowledge into their innovation processes. These chapters highlight the importance of scientific knowledge for military innovation. The third chapter focuses on the structure of the defense industry knowledge base using indicators from the literature on technological coherence [Nesta & Saviotti, 2005, 2006]. Our results in this chapter show the importance of the exploratory nature of the defense firm knowledge base, i.e. the importance of making innovative technological connections. Finally, the last chapter questions the influence of the characteristics of the knowledge bases of firms, and more particularly defense companies, on the performance of the technological innovation process. This chapter shows the specificity of defense firms’ knowledge bases and its influence on the performance of their technological innovation process
APA, Harvard, Vancouver, ISO, and other styles
25

Corby, Olivier. "Un Tableau réflexif pour la coopération de bases de connaissances." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37612991p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Corman, Julien. "Knowledge base ontological debugging guided by linguistic evidence." Thesis, Toulouse 1, 2015. http://www.theses.fr/2015TOU10070/document.

Full text
Abstract:
Le résumé en français n'a pas été communiqué par l'auteur
When they grow in size, knowledge bases (KBs) tend to include sets of axioms which are intuitively absurd but nonetheless logically consistent. This is particularly true of data expressed in OWL, as part of the Semantic Web framework, which favors the aggregation of set of statements from multiple sources of knowledge, with overlapping signatures.Identifying nonsense is essential if one wants to avoid undesired inferences, but the sparse usage of negation within these datasets generally prevents the detection of such cases on a strict logical basis. And even if the KB is inconsistent, identifying the axioms responsible for the nonsense remains a non trivial task. This thesis investigates the usage of automatically gathered linguistic evidence in order to detect and repair violations of common sense within such datasets. The main intuition consists in exploiting distributional similarity between named individuals of an input KB, in order to identify consequences which are unlikely to hold if the rest of the KB does. Then the repair phase consists in selecting axioms to be preferably discarded (or at least amended) in order to get rid of the nonsense. A second strategy is also presented, which consists in strengthening the input KB with a foundational ontology, in order to obtain an inconsistency, before performing a form of knowledge base debugging/revision which incorporates this linguistic input. This last step may also be applied directly to an inconsistent input KB. These propositions are evaluated with different sets of statements issued from the Linked Open Data cloud, as well as datasets of a higher quality, but which were automatically degraded for the evaluation. The results seem to indicate that distributional evidence may actually constitute a relevant common ground for deciding between conflicting axioms
APA, Harvard, Vancouver, ISO, and other styles
27

Naoum, Lamiaa. "Un modèle multidimensionnel pour un processus d'analyse en ligne de résumés flous." Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00481046.

Full text
Abstract:
Le travail présenté dans cette thèse traite de l'exploration et de la manipulation des résumés de bases de données de taille significative. Les résumés produits par le système SaintEtiQ sont des vues matérialisées multi-niveaux de classes homogènes de données, présentées sous forme de collections d'étiquettes floues disponibles sur chaque attribut. La contribution de cette thèse repose sur trois points. En premier lieu nous avons défini un modèle de données logique appelé partition de résumés, par analogie avec les cubes de données OLAP, dans le but d'offrir à l'utilisateur final un outil de présentation des données sous forme condensée et adaptée à l'analyse. En second lieu, nous avons défini une collection d'opérateurs algébriques sur l'espace multidimensionnel des partitions de résumés. Ces opérateurs sont à la base d'une algèbre de manipulation des résumés. Cette algèbre prend en compte les spécificités du modèle de résumé que nous traitons. Nous avons adapté la ma jorité des opéra- teurs d'analyse proposés dans les systèmes OLAP. Ainsi, nous avons identifié : les opérateurs de base issus de l'algèbre relationnelle, les opérateurs de changement de granularité et les opérateurs de restructuration. Ces résultats offrent de nouvelles perspectives pour l'exploitation effective des résumés dans un système décisionnel. Finalement, pour compléter ce travail, nous nous sommes intéressés à la représen- tation des résumés et des partitions de résumés linguistiques, notamment pour en fournir une présentation claire et concise à l'utilisateur final. Appliquée à une hiérar- chie de résumés produite par le système SaintEtiQ, l'approche tente de construire des prototypes flous représentant les résumés.
APA, Harvard, Vancouver, ISO, and other styles
28

Zeitouni, Karine. "Analyse et extraction de connaissances des bases de données spatio-temporelles." Habilitation à diriger des recherches, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00325468.

Full text
Abstract:
Ces dernières années ont vu une croissance phénoménale dans la production et la diffusion des données spatiales de sources aussi variées qu'hétérogènes. Cela a généré des besoins d'intégration dans des entrepôts de données et des perspectives d'analyse exploratoire et de fouille de données spatiales et spatiotemporelles. Nos travaux se placent dans ce contexte visant l'analyse et l'extraction des connaissances depuis les bases de données spatiotemporelles. Ils traitent différents aspects allant de la modélisation avancée des données spatiales, à la fouille de ces données en passant par leur intégration dans un entrepôt, l'optimisation des requêtes et l'analyse en ligne. Ainsi, nous décrivons nos approches pour la modélisation 3D, puis pour la modélisation spatiotemporelle d'objets mobiles. Ensuite, l'intégration de données spatiales est traitées selon deux aspects : l'intégration de formats et l'intégration de données par l'appariement géométrique. Une architecture d'entrepôt de données spatiales basée sur les standards XML et GML est proposée, puis dotée d'une technique d'optimisation de requêtes spatiales basée sur un cache sémantique. L'exploration des données spatiotemporelles a donné lieu à des solutions originales extension de l'OLAP. Enfin, différentes approches sont proposées pour la fouille de données spatiales. Nous avons ouvert le spectre de nos recherches à la fouille d'autres données complexes, telles que les données séquentielles et textuelles. Ces travaux ainsi que les développements futurs sont exposés dans ce mémoire.
APA, Harvard, Vancouver, ISO, and other styles
29

Mazure, Bertrand. "De la satisfaisabilité à la compilation de bases de connaissances propositionnelles." Artois, 1999. http://www.theses.fr/1999ARTO0401.

Full text
Abstract:
La représentation des connaissances et les problèmes d'inférences associés demeurent une problématique riche et centrale en informatique et plus précisément en intelligence artificielle. Le formalisme considéré dans cette thèse est la logique propositionnelle. A moins que p = np, la déduction en logique propositionnelle n'admet pas de solutions à la fois générales et efficaces. Deux problèmes directement connectés à la déduction sont abordés : la satisfaisabilité et la compilation de bases de connaissances propositionnelles. Après une présentation de la thématique abordée, une étude des méthodes de résolution du problème SAT est réalisée. Un nouvel algorithme de recherche locale, basé sur la méthode tabou, est proposé. Un résultat empirique permet de régler la taille de la liste tabou en fonction du nombre de variables pour des instances KSAT aléatoires. En ce qui concerne les algorithmes complets, notre contribution porte sur une généralisation du théorème de partition du modèle et sur la proposition de plusieurs de schémas de coopération (extrêmement performants en pratique) entre méthodes complètes et incomplètes. La présentation de résultats empiriques, mettant en évidence un lien entre la probabilité de positiver un littéral et le pic de difficulté des instances aléatoires, conclue la partie dédiée à SAT. La dernière partie est consacrée au problème de la compilation logique de bases de connaissances. Nous proposons une nouvelle technique de compilation préservant l'équivalence, reposant sur l'idée de déterminer un ensemble de formules traitables, appelé couverture traitable, sémantiquement équivalent à la formule initiale. Ce type de couverture généralise la notion de couverture d'impliquants. Nous proposons trois cas particuliers de couvertures : modulo une théorie, de simplifications traitables et d'hyper-impliquants. Les résultats théoriques et pratiques obtenus montrent que ces approches améliorent nettement les approches existantes.
APA, Harvard, Vancouver, ISO, and other styles
30

Bouali, Fatma. "Validation, diagnostic et réparation de bases de connaissances : le système KBDR." Paris 11, 1996. http://www.theses.fr/1996PA112279.

Full text
Abstract:
Cette thèse se situe à la frontière de deux domaines de la recherche en Intelligence Artificielle: Validation, Vérification et Test de Systèmes à Bases de Connaissances et Diagnostic à Bases de Modèles. Les techniques développées dans le domaine du Diagnostic à Bases de Modèles sont utilisées pour la caractérisation des causes possibles de l'incohérence d'une base de règles et pour sa réparation. Pour vérifier la cohérence de Bases de Connaissances (BC), nous proposons dans notre thèse d'intégrer les approches traditionnelles que sont la Vérification et le Test et nous montrons que cette intégration contribue à une meilleure détection d'incohérences. Pour caractériser les causes possibles de l'incohérence d'une base de règles, nous proposons des extensions à la théorie du diagnostic de Reiter utilisée pour trouver les causes possibles de panne de systèmes physiques. Par suite nous avons adapté les algorithmes existant dans le domaine du diagnostic pour calculer de telles causes. Nous proposons une approche qui permet de caractériser des ensembles d'actions de réparation permettant de restaurer globalement la cohérence de la base de règles. Cette approche utilise un ensemble de jeux de test. Son originalité réside dans le fait que même les incohérences décelées au niveau du processus Vérification peuvent être aussi corrigées en proposant des modifications au sein même de certaines règles. L'étude que nous avons menée nous a conduit à réaliser le système KBDR qui intègre Test et Vérification pour détecter les incohérences d'une base de règles. Si des incohérences sont décelées, KBDR peut fournir à l'expert les causes possibles de l'incohérence de la base de règles à savoir les diagnostics. Si des jeux de test sont disponibles, KBDR peut aussi proposer à l'expert des ensembles d'actions de réparation partiellement ordonnés permettant de restaurer la cohérence de la base.
APA, Harvard, Vancouver, ISO, and other styles
31

Koutraki, Maria. "Approches vers des modèles unifiés pour l'intégration de bases de connaissances." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV082/document.

Full text
Abstract:
Ma thèse a comme but l’intégration automatique de nouveaux services Web dans une base de connaissances. Pour chaque méthode d’un service Web, une vue est calculée de manière automatique. La vue est représentée comme une requête sur la base de connaissances. L’algorithme que nous avons proposé calcule également une fonction de transformation XSLT associée à la méthode qui est capable de transformer les résultats d’appel dans un fragment conforme au schéma de la base de connaissances. La nouveauté de notre approche c’est que l’alignement repose seulement sur l’alignement des instances. Il ne dépend pas des noms des concepts ni des contraintes qui sont définis par le schéma. Ceci le fait particulièrement pertinent pour les services Web qui sont publiés actuellement sur le Web, parce que ces services utilisent le protocole REST. Ce protocole ne permet pas la publication de schémas. En plus, JSON semble s’imposer comme le standard pour la représentation des résultats d’appels de services. À différence du langage XML, JSON n’utilise pas de noeuds nommés. Donc les algorithmes d’alignement traditionnels sont privés de noms de concepts sur lesquels ils se basent
My thesis aim the automatic integration of new Web services in a knowledge base. For each method of a Web service, a view is automatically calculated. The view is represented as a query on the knowledge base. Our algorithm also calculates an XSLT transformation function associated to the method that is able to transform the call results in a fragment according to the schema of the knowledge base. The novelty of our approach is that the alignment is based only on the instances. It does not depend on the names of the concepts or constraints that are defined by the schema. This makes it particularly relevant for Web services that are currently available on the Web, because these services use the REST protocol. This protocol does not allow the publication schemes. In addition, JSON seems to establish itself as the standard for the representation of technology call results
APA, Harvard, Vancouver, ISO, and other styles
32

Wendler, Bruno. "Vérification de la cohérence dynamique dans les bases de connaissances modulaires." Chambéry, 1996. http://www.theses.fr/1996CHAMS010.

Full text
Abstract:
La complexité des systèmes à bases de connaissances a tendance à s'accroitre. Elle atteint son paroxysme lorsque ceux-ci sont utilisés pour résoudre des problèmes critiques tels que ceux du domaine spatial. Reflétant cette complexité, la base de connaissances est souvent décomposée en plusieurs modules. Cette modularité peut être prise en compte lors de la vérification de systèmes complexes. Nous nous sommes intéressés à la vérification dynamique de la cohérence dans de tels systèmes, en prenant en compte leur potentiel déductif. Partant du calcul de labels locaux à un module, un processus d'expansion permet d'obtenir le label pour l'ensemble de modules. Cela permet de réduire la complexité du calcul de labels en offrant la possibilité de réutiliser des calculs intermédiaires. Cette technique rend plus efficace la vérification des contraintes d'incohérence de la base de connaissances. Quand la base de connaissances n'est pas modulaire, nous proposons des algorithmes de partitionnement spécifiques à la tache de vérification de la cohérence. Les idées et les algorithmes ont été testés sur des bases de connaissances issues du monde industriel
APA, Harvard, Vancouver, ISO, and other styles
33

Gueye, Ibrahima. "Création de bases de connaissances interconnectées - institut de formation/entreprise - par la capitalisation des connaissances en maintenance industrielle." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0040/document.

Full text
Abstract:
Dans la formation de nos BTS (Brevet de Technicien Supérieur) destinés à l’industrie, Il est important de disposer d’un référentiel de compétences qui renvoie à des profils de qualification professionnelle détaillant les compétences que les étudiants doivent acquérir. Ce référentiel de compétences doit être en permanence mis à jour pour que l’amélioration en continu soit en adéquation dans les couples formation/emploi et institut de formation professionnelle/entreprise. Ainsi notre proposition est de mettre en œuvre un modèle permettant de mettre à jour régulièrement le Référentiel de Compétence du Centre de Formation Professionnelle et Technique (CFPT). Ce modèle capitalise des connaissances en entreprise industrielle et a pour point focal un Etudiant/Stagiaire (ES) en situation d’apprentissage dans un pool de maintenance industrielle. Durant son séjour en entreprise chaque activité de maintenance effectuée par le stagiaire est exploitée par un ensemble d’experts et transférée dans une base de données. Cette base de données est confrontée avec la base de données de connaissances produites par l’institut de formation. Ainsi les deux bases de données s’enrichissent mutuellement et se mettent à jour pour une amélioration continue du niveau de performance de la formation donnée à l’ES
In the training of our BTS (Industrial Technician's Certificate), it is important to have a competency framework that refers to professional qualification profiles detailing the skills that students must acquire. This competency framework must be constantly updated to ensure a continuous improvement in the training / employment and vocational training / business partners. Our proposal is to implement a knowledge capitalization model whose focus is on the “Etudiant/Stagiaire (ES)” in a learning situation in an industrial maintenance sector. During his/her stay in the company, each maintenance activity carried out by the trainee is assessed by the experts in the maintenance sector and recorded in the database. This database is then cross-checked with the required proficiency outlined in the training institute database. This way, the two databases will mutually enrich and update each other so there is a continuous improvement of the performance level of training given to the ES
APA, Harvard, Vancouver, ISO, and other styles
34

Arioua, Abdallah. "Formalisation et étude des explications dialectiques dans les bases de connaissances incohérentes." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT261/document.

Full text
Abstract:
Les bases de connaissances sont des bases de données déductives où la logique est utilisée pour représenter des connaissances de domaine sur des données existantes. Dans le cadre des règles existentielles, une base de connaissances est composée de deux couches : la couche de données qui représentent les connaissances factuelle et la couche ontologique qui incorpore des règles de déduction et des contraintes négatives. L’interrogation de données à l’aide des ontologies est la fonction de raisonnement principale dans ce contexte. Comme dans la logique classique, les contradictions posent un problème à l’interrogation car « d'une contradiction, on peut déduire ce qu'on veut (ex falso quodlibet) ».Récemment, des approches d’interrogation tolérantes aux incohérences ont été proposées pour faire face à ce problème dans le cadre des règles existentielles. Elles déploient des stratégies dites de réparation pour restaurer la cohérence. Cependant, ces approches sont parfois inintelligibles et peu intuitives pour l'utilisateur car elles mettent souvent en œuvre des stratégies de réparation complexes. Ce manque de compréhension peut réduire l’utilisabilité de ces approches car elles réduisent la confiance entre l'utilisateur et les systèmes qui les utilisent. Par conséquent, la problématique de recherche que nous considérons est comment rendre intelligible à l’utilisateur l’interrogation tolérantes aux incohérences. Pour répondre à cette question de recherche, nous proposons d’utiliser deux formes d’explication pour faciliter la compréhension des réponses retournées par une interrogation tolérante aux incohérences. La première est dite de niveau méta et la seconde de niveau objet. Ces deux types d’explication prennent la forme d'un dialogue entre l'utilisateur et le raisonneur au sujet des déductions retournées comme réponses à une requête donnée. Nous étudions ces explications dans le double cadre de l'argumentation fondée sur la logique et de la dialectique formelle, comme nous étudions leurs propriétés et leurs impacts sur les utilisateurs en termes de compréhension des résultats
Knowledge bases are deductive databases where the machinery of logic is used to represent domain-specific and general-purpose knowledge over existing data. In the existential rules framework a knowledge base is composed of two layers: the data layer which represents the factual knowledge, and the ontological layer that incorporates rules of deduction and negative constraints. The main reasoning service in such framework is answering queries over the data layer by means of the ontological layer. As in classical logic, contradictions trivialize query answering since everything follows from a contradiction (ex falso quodlibet). Recently, inconsistency-tolerant approaches have been proposed to cope with such problem in the existential rules framework. They deploy repairing strategies on the knowledge base to restore consistency and overcome the problem of trivialization. However, these approaches are sometimes unintelligible and not straightforward for the end-user as they implement complex repairing strategies. This would jeopardize the trust relation between the user and the knowledge-based system. In this thesis we answer the research question: ``How do we make query answering intelligible to the end-user in presence of inconsistency?''. The answer that the thesis is built around is ``We use explanations to facilitate the understanding of query answering''. We propose meta-level and object-level dialectical explanations that take the form of a dialogue between the user and the reasoner about the entailment of a given query. We study these explanations in the framework of logic-based argumentation and dialectics and we study their properties and their impact on users
APA, Harvard, Vancouver, ISO, and other styles
35

Massotte, Anne-Marie Marty. "L'élaboration des bases de connaissances pour des systèmes experts : éléments d'approche méthodologique." Montpellier 2, 1986. http://www.theses.fr/1986MON20098.

Full text
Abstract:
Les systemes experts a regles de production ont ete etudies. Diverses applications ont ete choisies et realisees. La premiere a permis le developpement d'un logiciel de resolution de problemes. L'application suivante a permis de tester le logiciel deja existant et d'ameliorer la communication homme-machine. La derniere application decrite dans ce travail constitue le premier exemple termine et reussi de systeme expert utilisant ces principes
APA, Harvard, Vancouver, ISO, and other styles
36

Deschamps, Renaud. "Bases de connaissances généralisées : une approche fondée sur un modèle hypertexte expert." Toulouse 3, 1995. http://www.theses.fr/1995TOU30017.

Full text
Abstract:
Cette these s'inscrit dans le contexte de l'ingenierie des bases de connaissances generalisees. Nous proposons une approche fondee sur un modele d'hypertexte expert. Ce modele est base sur l'exploitation correlee d'une base d'objets hypertextes et d'une base de connaissances de maniere a associer aux notions hypertextes classiques celle d'expertise. Ce modele theorique est defini selon trois sortes d'aspects: structurels, mediatiques et dynamiques. A) les aspects structurels sont relatifs aux objets qui permettent de specifier un reseau hypertexte donne. Le modele etend les concepts d'unite informative et de lien hypertexte par l'integration de connaissances interpretees par des mecanismes d'exploitation appropries. B) les aspects mediatiques sont bases sur les notions d'unite mediatique et de forme mediatique grace auxquelles les informations modelisees dans le reseau sont perceptibles par un utilisateur humain. Une meme sequence d'informations peut etre mediatisee de maniere differente selon le contexte. C) les aspects dynamiques concernent la consultation du reseau d'informations qui est fondee sur un processus de navigation contextuelle: celle-ci permet d'orienter l'utilisateur de facon experte, en ne lui proposant qu'un sous-ensemble de possibilites de consultation. Ceci est possible grace a la notion de domaine de pertinence associe aux liens qui permet ainsi prise en compte d'un contexte. Chaque lien referentiel participe au changement eventuel de contexte qu'implique sa presence au sein d'un chemin. Une representation centree objets est proposee ; les differentes entites du modele hypertexte expert sont formalisees en terme d'objets et leur dynamique est decrite au travers des liens d'heritage et des reflexes. Une premiere implantation est presentee a l'aide du systeme corps-he, concu et realise grace a la couche centree objets corps independamment definie autour du langage prolog
APA, Harvard, Vancouver, ISO, and other styles
37

Lavielle, Nathalie. "Bases de connaissances généralisées : le modèle de gestion d'informations de type hypertexte." Pau, 1994. http://www.theses.fr/1994PAUU3001.

Full text
Abstract:
Nous définissons une base de connaissances généralisées comme l'extension d'une base de données a des informations de structure complexe et intégrant des connaissances. Nous avons été amenés à construire une telle base comme une coopération entre une base de données relationnelles d'une part, et une base de documents organisée suivant un mode hypertexte, et intégrant des connaissances grâce à un environnement expert, d'autre part. Dans ce cadre, nous proposons un modèle de gestion d'informations de types hypertexte par la base de données qui permet de mettre en oeuvre une partie de cette association. Nous définissons une information de type hypertexte comme un objet documentaire, permettant à la base de documents de manipuler une unité informative référencée par un lien. La base de documents devant intégrer des connaissances à l'intérieur de ses documents, les techniques particulières utilisées mêlent celles des systèmes experts et des systèmes hypertextes, de manière à créer un système hypertexte expert. Nous définissons un système hypertexte expert comme étant capable d'exploiter et de consulter un réseau d'informations construit à partir d'objets hypertextes classiques, auxquels sont associés des connaissances formalisées. Nous avons alors cherché à formaliser un modèle de document hypertexte expert. Cette facette expert, intégrant des connaissances aux documents hypertextes, permet d'adjoindre le dynamisme aux informations. En effet, les documents consultés peuvent évoluer en fonction de l'environnement de la base documentaire. La présence de connaissances permet d'offrir par exemple à l'utilisateur une navigation experte au sein de la base de connaissances généralisées.
APA, Harvard, Vancouver, ISO, and other styles
38

Schildknecht, Stéphane. "Le projet GRAMS : Construction automatique et exploitation de bases de connaissances réactionnelles." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Massotte, Anne-Marie. "L'Elaboration des bases de connaissances pour les systèmes experts éléments d'approche méthodologique." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375995118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Vidrequin, Cédric. "Constitution automatique de bases de connaissances à partir de données textuelles non structurées." Avignon, 2008. http://www.theses.fr/2008AVIG0171.

Full text
Abstract:
L'objectif de cette thèse est l'exploration de modèles permettant la constitution automatisée de bases de connaissances. Ces bases sont constituées en appliquant des procédures d'apprentissage sur des corpus de textes statiques ou évoluant dans le temps. Le mémoire s'articule autour de deux grandes parties, décrivant chacune une méthode d'enrichissement automatique de bases de connaissances, appliquée à un domaine spécifique. Ces deux méthodes ont en commun de travailler sur des documents textuels peu ou non structurés, et d'utiliser très peu de connaissances en amorce. Pour pouvoir être transposable d'une langue à l'autre, ou d'un domaine à l'autre, on a recours aussi peu que possible aux ressources linguistiques. On donne donc une préférence marquée pour les méthodes numériques. Mais l'objectif étant de produire des bases de connaissances, on ne rejette pas pour autant les méthodes symboliques. Au contraire, il s'agit d'étudier dans quelle mesure on peut produire certains des éléments sur lesquels elles s'appuient, au moyen de méthodes numériques. Le premier volet est orienté vers les moteurs de questions-réponses. Lors des dernières campagnes d'évaluation, les systèmes les plus performants ont employé des quantités massives d'expressions régulières. L'écriture de ces règles nécessitant un investissement énorme, il n'est donc pas raisonnable de se contenter de ce mécanisme pour gérer le tout venant des questions pouvant être posées par un utilisateur, dans un système interactif. On envisage donc de déduire automatiquement ces règles à partir de textes. Chaque question induit une relation entre deux éléments, dont l'un est connu et l'autre pas. Pour chacune des relations, on construit manuellement une courte amorce, utilisée dans un algorithme d'amorce mutelle à double niveau, entre patrons et couples termes. A partir des couples d'amorce, le système génère des listes de patrons qui sont enrichies de façon semi-supervisée, puis utilisées pour trouver de nouveaux couples. Ces couples sont à leur tour réutilisés pour générer, par itérations successives, de nouveaux patrons. Les différentes étapes de l'enrichissement automatique utilisent les patrons de phrase dans des recherches d'informations sur Internet. Le second volet traite de l'extraction automatique d'informations sur des micro-textes. Le cas pratique des petites annonces est étudié, avec pour objectif d'extraire automatiquement l'ensemble des critères de petites annonces. Ces critères doivent définir au mieux les informations structurant les petites annonces. Dans la plupart des cas, une amorce est malgré tout nécessaire. Elle est donc construite de façon à être courte et facilement adaptable. On profite de cette dernière pour enrichir la liste des critères extraits, en fournissant des informations sous-jacentes aux données extraites. Nous comparons enfin deux méthodes d'extraction, l'une utilisant un découpage de l'annonce en fonction des caractères de ponctuation, l'autre utilisant des collocations et ratios de vraisemblance.
APA, Harvard, Vancouver, ISO, and other styles
41

Leclercq, Jean. "Les représentations informatiques des connaissances juridiques : l'expérience française." Lille 2, 1999. http://www.theses.fr/1999LIL20019.

Full text
Abstract:
Depuis les annees soixante, les juristes se sont attaches a retranscrire le droit par le truchement de l'outil informatique, il faut pourtant distinguer pour sa representation le droit complique du droit complexe. Le premier, de nature statique, fait appel au texte juridique. Pour l'essentiel, il s'agit des banques de donnees juridiques. Le second, dynamique, privilegie davantage le contexte et met en exergue le droit en mouvement, avec notamment les systemes experts, le connexionnisme, l'hypertexte ou la modelisation dite objet. Dans ces deux axes, une reflexion en amont s'impose dans les domaines de la logique et de la linguistique juridiques, qui a pour finalite la mise en valeur de la specificite du discours juridique. Meme si toute representation semble plus aisee dans le domaine procedural que pour le fond du droit, on peut toujours se demander si l'acces a la connaissance de plus de droit permet de pallier l'ineffectivite de l'adage "nul n'est cense ignorer la loi". La diffusion du droit (d'obedience publique ou privee), notamment par le biais du reseau internet, ne semble pas pour l'instant satisfaire ce voeu en particulier pour l'usager qui desirerait aborder une questionjuridique. Aussi faut-il poursuivre toute initiative dans l'objectif d'une double complementarite : le developpement de passerelles entre les diverses formes de representation qui ne doivent en aucun cas demeurer cloisonnees et une cooperation active entre les diverses disciplines, qu'elles soient juridiques, informatiques ou linguistiques.
APA, Harvard, Vancouver, ISO, and other styles
42

Dang, Weidong Courtois Bernard. "Parallélisme dans une machine base de connaissances Prolog." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00323956.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Laurent, Anne. "Bases de données multidimensionnelles floues et leur utilisation pour la fouille de données." Paris 6, 2002. http://www.theses.fr/2002PA066426.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Boukhari, Sanâa. "Les facteurs explicatifs du comportement de contribution aux systèmes de gestion des connaissances intégratifs : le cas des bases électroniques de connaissances." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX24017.

Full text
Abstract:
La présente thèse a pour objectif d’étudier le comportement de partage des connaissances au moyen des Systèmes de Gestion des Connaissances (SGC). Plus précisément, il s’agit de fournir un cadre explicatif au comportement de contribution aux Bases Electroniques de Connaissances (BEC). La revue de littérature a permis, d’une part de préciser et définir les principaux concepts et les principales notions utilisés dans le cadre de ce travail, et d’autre part de présenter et discuter un cadre théorique mixte sur lequel est basée l’élaboration de notre modèle de recherche. Suivant un raisonnement hypothético-déductif, un modèle explicatif du comportement de contribution aux BEC est proposé. Ce modèle intègre deux variables à expliquer « Partage de connaissances » et « Utilisation du SGC », neuf variables explicatives de type motivationnel, culturel, relationnel, technologique et informationnel, et six variables modératrices de type démographique. Ce modèle est ensuite testé auprès de 388 individus appartenant à un leader mondial de produits alimentaires et une entreprise mondiale spécialisée dans les solutions technologiques. Les données collectées sont traitées en utilisant une analyse exploratoire et une analyse confirmatoire par les méthodes des équations structurelles. Les résultats permettent de mettre en avant les facteurs déterminant le comportement de partage de connaissances au moyen des SGC. Ils permettent ainsi sur le plan théorique d’enrichir les travaux antérieurs portant sur le partage des connaissances, et sur le plan pratique de fournir aux responsables de gestion des connaissances un cadre explicatif du comportement de contribution aux BEC
This thesis aims at studying the knowledge sharing behavior through Knowledge Management Systems (KMS). More specifically, it intends to provide an explanation of contribution behavior to Electronic Knowledge Repositories (EKR). The literature review has allowed to clarify and define key concepts used in this work, and has enabled us to propose and discuss a conceptual framework for the development of our research model. Following a hypothetico-deductive reasoning, a explanatory model of contribution behavior to EKR is proposed. The model included two dependent variables “Knowledge sharing” and “KMS use”, nine independent variables namely motivational, cultural, relational, technological and informational, as well as six moderating variables. The model was later tested with 388 individuals belonging to two companies i. E. A world leader in food industry and a global company specializing in technology solutions. The data collected was analyzed using exploratory and confirmatory analyses through the structural equation modeling techniques. The results showed several factors determining the knowledge sharing behavior through EKR. These results enriched previous studies about knowledge sharing and provided managers an explanation about contribution behavior to EKR
APA, Harvard, Vancouver, ISO, and other styles
45

Tayar, Nina. "Gestion des versions pour la construction incrémentale et partagée de bases de connaissances." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005065.

Full text
Abstract:
Dans de nombreux domaines scientifiques ou techniques, la quantité et la complexité croissantes des connaissances manipulées rendent inadéquate l'utilisation de supports classiques tels que le papier. L'informatique peut apporter une réponse en proposant un cadre pour modéliser, gérer et exploiter ces connaissances : on parle alors de bases de connaissances. Pour la plupart des domaines, la connaissance n'est pas statique et immédiatement disponible mais est au contraire en constante évolution au fur et à mesure des découvertes. Dés lors, une base de connaissances est construite de manière incrémentale. Incrémentale veut dire que l'on commence par construire une petite base qui est enrichie petit à petit par l'acquisition de nouvelles connaissances. Cette construction est partagée puisque plusieurs personnes doivent pouvoir travailler simultanément sur cette base afin de la bâtir. Cette thèse aborde la problématique de la gestion des versions pour les bases de connaissances. Ses apports sont de deux ordres. Nous avons tout d'abord conçu et réalisé un système de gestion de versions de bases de connaissances. Par définition, une version reflète un état de l'évolution de la base, c'est-à-dire de l'ensemble des structures et des valeurs des connaissances contenues dans celle-ci (à un moment donné). Les versions aident ainsi à contrôler l'historique des changements effectués au cours de la construction de la base. Elles permettent également un éventuel retour en arrière. Finalement, les versions permettent la formulation de différentes hypothèses de recherche et la gestion de leur évolution parallèle au cours du temps. Nous avons également contribué à la conception de l'environnement de construction incrémentale et partagée de bases de connaissances et montré comment notre système de versions s'intègre au sein de cet environnement.
APA, Harvard, Vancouver, ISO, and other styles
46

Bounaas, Fethi. "Gestion de l'évolution dans les bases de connaissances : une approche par les règles." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005030.

Full text
Abstract:
Le travail présenté dans cette thèse aborde les problèmes de gestion de l'évolution des schémas et des objets dans les systèmes à base de connaissances. Ce travail a été réalisé dans le cadre du système de représentation de connaissances objets SHOOD. Cette étude tente d'apporter des solutions aux problèmes d'extensibilité et de réutilisation des mécanismes d'évolution. Nous proposons un système d'évolution permettant la définition et la mise en ouvre de la dynamique. Cette mise en ouvre est réalisée par un ensemble de mécanismes tels que la classification d'instances et les règles actives ou règles ECA (Evenement,Condition, Action), ainsi qu'un ensemble d'opérations de manipulation : le support d'évolution. Nous proposons de même un mécanisme de règles et de stratégies d'évolution pour permettre une expression déclarative des contraintes d'évolution de structures ou de données. Le concepteur peut définir des stratégies pour regrouper ces contraintes. Suivant ses besoins, il peut faire cohabiter plusieurs stratégies, mais une seule sera active à un moment donné. Ce mécanisme de règles et de stratégies d'évolution est principalement développé en établissant une correspondance entre une règle d'évolution et plusieurs règles ECA, ainsi qu'une correspondance entre une stratégie et une base de règles ECA.
APA, Harvard, Vancouver, ISO, and other styles
47

Simon, Arnaud. "Outils classificatoires par objets pour l'extraction de connaissances dans des bases de données." Nancy 1, 2000. http://www.theses.fr/2000NAN10069.

Full text
Abstract:
Cette dernière décennie a vu évoluer la problématique relative au traitement des données d'une part par un facteur d'échelle - les données ainsi que la représentation qui leur est associée sont de plus en plus nombreuses - et de disponibilité (notamment par le développement des réseaux de communication et des supports de stockage) de l'autre. L'étude des techniques permettrait d'exploiter ces masses de données maintenant disponibles fait l'objet du courant de recherche appelé extraction de connaissances dans des bases de données ou ECBD. Les principales techniques étudiées dans le cadre de l'ECBD sont issues des bases de données, de l'apprentissage, de la représentation des connaissances, des statistiques, de l'analyse de données et de la visualisation. L'ECBD est ainsi un domaine de recherche pluridisciplinaire où l'ensemble des techniques mises en oeuvre visent l'objectif commun qui consiste à exploiter au mieux les données. L'approche de l'ECBD qui est adoptée dans ce mémoire de thèse est fondée sur l'étude d'outils classificatoires par objets. Les techniques classiques d'arbres de décision et principalement de treillis de Galois sont adaptées - ces techniques relèvent des problématiques issues des modèles fondés sur des « tableaux de données» -- au cas ou les données relèvent d'un système de représentation des connaissances par objets, ou système de RCO. Un système de RCO a pour fonction de stocker et d'organiser les connaissances autour de la notion de hiérarchie d'objets et de fournir des services inférentiels - qui sont destinés à compléter l'information disponible - et d'accès à l'information (filtrage) tous deux fondés sur des méthodes classificatoires. Par ailleurs, un système de RCO permet de manipuler des données « complexes» car leurs attributs ne se réduisent pas à des types de base atomique mais peuvent être d'autres objets (relations) ; aussi bien mono que multivalués. Les fonctionnalités de représentation et inférentielles des systèmes de RCO sont mises à profit pour l'ECBD pour elles-même mais aussi pour la construction de structures classificatoires d'arbres de décision et de treillis de Galois. Les structures ainsi construites sont des hiérarchies d'objets qui relèvent du modèle de RCO. Une telle approche a pour avantages de prendre en compte les connaissances disponibles et de produire des structures directement interprétables et réutilisables - pour mener à bien des inférences ou des constructions de nouvelles structures. Les structures de treillis de Galois sont également mises à profit pour la construction de toutes les règles d'association partielles. Nous montrons que notre approche possède l'avantage de construire moins de règles, car des règles redondantes ne sont pas produites, de permettre une mise à jour des règles pour tenir compte de nouveaux individus ou de nouvelles propriétés et d'améliorer l'expressivité des règles.
APA, Harvard, Vancouver, ISO, and other styles
48

Wurbel, Nathalie. "Dictionnaires et bases de connaissances : traitement automatique de données dictionnairiques de langue française." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30035.

Full text
Abstract:
L'utilisation des versions informatisees de dictionnaires courants comme sources d'informations en traitement automatique du langage naturel a ete encouragee par la masse de connaissances lexicales et semantiques qu'ils contiennent. Cependant, apres 15 annees de recherches, les resultats apparaissent decevants et n'ont pas debouche sur une evaluation des bases de connaissances dictionnairiques, ni sur l'etude des retombees de ces recherches. Nous avons realise l'evaluation d'un dictionnaire francais. En nous placant dans le cadre de la construction automatique de taxinomies, nous avons repertorie les anomalies et les imperfections des informations extraites de facon automatique dont nous donnons une classification detaillee. Ces observations ont ete utilisees pour definir un modele de dictionnaire informatise destine a la fois a des utilisateurs humains et a des systemes de traitement automatique du langage naturel, ou les informations dictionnairiques sont representees dans une base de connaissances orientee objets. Nous proposons un automate de generation de definitions, fournissant un outil puissant d'aide a la redaction pour les lexicographes
APA, Harvard, Vancouver, ISO, and other styles
49

Rousset, Marie-Christine. "Sur la cohérence et la validation des bases de connaissances : le système COVADIS." Paris 11, 1988. http://www.theses.fr/1988PA112238.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans le cadre général de la validation de la connaissance dans les systèmes experts à base de règles. Une méthode de preuve de la cohérence de bases de règles, indépendante de bases de faits particuliers, est proposée.
APA, Harvard, Vancouver, ISO, and other styles
50

Pipard, Eric. "Inde : un système de détection d'inconsistances et d'incomplétudes dans les bases de connaissances." Paris 11, 1987. http://www.theses.fr/1987PA112413.

Full text
Abstract:
La phase d'acquisition des connaissances c'est à dire l'extraction ainsi que la formalisation de celles-ci une opération délicate dans la réalisation d'un système expert. Il est donc nécessaire de disposer de logiciel permettant de détecter des incohérences dans les bases de connaissances. Précisons ce que nous entendons par incohérence. S'il existe une base de faits initiale telle que sa saturation contienne un fait et la négation de celui-ci alors nous dirons que la base de connaissances est inconsistante. Si les saturations de toutes les bases de faits initiales ne contiennent pas un fait pourtant déductible alors nous dirons que la base de connaissances est incomplète. Afin d'éviter le calcul des saturations des bases de faits initiales, nous décomposons les bases de connaissances en ensembles maximaux de règles, appelés concepts, en fonction de contraintes portant sur l'exclusion mutuelle des conditions des règles de production. Les règles d'un concept sont déclenchables au cours d'une même session car leurs conditions ne violent pas les contraintes d'exclusion. Pour tenir compte de la puissance de déduction des bues de connaissances ainsi que de la sémantique du langage d'expression des connaissances, nous choisissons de modéliser les bases de connaissances sous forme d'un réseau de Petri
In knowledge based systems field sophisticated tools are necessary to help expert with the difficult of knowledge acquisition. INDE is software able to detect inconsistency and incompleteness of blow systems independently of the initial facts bases. In the framework of this thesis a knowledge base will be called inconsistent if there exist a facts base such as its saturation by ail the rules of knowledge base contain a fact its negation. A knowledge base will be called incomplete if saturation of all the initial facts bases does not contain a fact considered as deducible. The solution we have implemented in the INDE system is to modelise knowledge bases in a Petri net. In order to avoid calculating saturations we split up knowledge bases in sets of rule named concept which condition of rules are not on mutual exclusion. Concept represents the maximal sets of rules simultaneously fireable. If there exists in a concept some rules ending on an identical attribute with different values, the knowledge base is recognized as inconsistent. If no rules allowing to deduce an attribute belong to any concept, the knowledge base is recognized incomplete
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography