Rozprawy doktorskie na temat „Raffinement des graphes de connaissances”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Raffinement des graphes de connaissances.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Raffinement des graphes de connaissances”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Khajeh, Nassiri Armita. "Expressive Rule Discovery for Knowledge Graph Refinement". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG045.

Pełny tekst źródła
Streszczenie:
Les graphes de connaissances (KG) sont des structures de graphes hétérogènes représentant des faits dans un format lisible par une machine. Ils trouvent des applications dans des tâches telles que la réponse automatique aux questions, la désambiguïsation et liaison d'entités. Cependant, les graphes de connaissances sont intrinsèquement incomplets et il est essentiel de les raffiner pour améliorer leur qualité. Pour compléter le graphe de connaissances, il est possible de prédire les liens manquants dans un graphe de connaissances ou d'intégrer des sources externes. En extrayant des règles du graphe de connaissances, nous pouvons les exploiter pour compléter le graphe tout en fournissant des explications. Plusieurs approches ont été proposées pour extraire efficacement des règles. Or, la littérature manque de méthodes efficaces pour incorporer des prédicats numériques dans les règles. Pour répondre à cette lacune, nous proposons REGNUM, qui permet d'extraire des règles numériques avec des contraintes d'intervalle. REGNUM s'appuie sur les règles générées par un système d'extraction de règles existant et les enrichit en incorporant des prédicats numériques guidés par des mesures de qualité. En outre, la nature interconnectée des données web offre un potentiel significatif pour compléter et raffiner les KG, par exemple, par le liage des données, qui consiste à trouver des liens d'identité entre des entités de KG différents. Nous présentons RE-miner, une approche qui extrait des expressions référentielles (RE) pour une classe dans un graphe de connaissances.Les REs sont des règles qui ne s'appliquent qu'à une seule entité. Elles facilitent la découverte de connaissances et permettent de lier les données de manière explicable. De plus, nous visons à explorer les avantages et les opportunités de l'affinage des modèles linguistiques pour combler le fossé entre les KG et les données textuelles. Nous présentons GilBERT, qui exploite le fine-tuning sur des modèles linguistiques tels que BERT en optimisant une fonction de coût par triplet pour les tâches de prédiction de relation et de classification de triple. En prenant en compte ces défis et en proposant des approches novatrices, cette thèse contribue au raffinement des KG, en mettant particulièrement l'accent sur l'explicabilité et la découverte de connaissances. Les résultats de cette recherche ouvrent la voie à de nouvelles questions de recherche qui font progresser vers des KG de meilleure qualité
Knowledge graphs (KGs) are heterogeneous graph structures representing facts in a machine-readable format. They find applications in tasks such as question answering, disambiguation, and entity linking. However, KGs are inherently incomplete, and refining them is crucial to improve their effectiveness in downstream tasks. It's possible to complete the KGs by predicting missing links within a knowledge graph or integrating external sources and KGs. By extracting rules from the KG, we can leverage them to complete the graph while providing explainability. Various approaches have been proposed to mine rules efficiently. Yet, the literature lacks effective methods for effectively incorporating numerical predicates in rules. To address this gap, we propose REGNUM, which mines numerical rules with interval constraints. REGNUM builds upon the rules generated by an existing rule mining system and enriches them by incorporating numerical predicates guided by quality measures. Additionally, the interconnected nature of web data offers significant potential for completing and refining KGs, for instance, by data linking, which is the task of finding sameAs links between entities of different KGs. We introduce RE-miner, an approach that mines referring expressions (REs) for a class in a knowledge graph and uses them for data linking. REs are rules that are only applied to one entity. They support knowledge discovery and serve as an explainable way to link data. We employ pruning strategies to explore the search space efficiently, and we define characteristics to generate REs that are more relevant for data linking. Furthermore, we aim to explore the advantages and opportunities of fine-tuning language models to bridge the gap between KGs and textual data. We propose GilBERT, which leverages fine-tuning techniques on language models like BERT using a triplet loss. GilBERT demonstrates promising results for refinement tasks of relation prediction and triple classification tasks. By considering these challenges and proposing novel approaches, this thesis contributes to KG refinement, particularly emphasizing explainability and knowledge discovery. The outcomes of this research open doors to more research questions and pave the way for advancing towards more accurate and comprehensive KGs
Style APA, Harvard, Vancouver, ISO itp.
2

Nedjari, Tayeb. "Réseaux de neurones artificiels et connaissances symboliques : insertion, raffinement et extraction". Paris 13, 1998. http://www.theses.fr/1998PA132024.

Pełny tekst źródła
Streszczenie:
La proliferation et le grand succes des applications incorporant des reseaux de neurones artificiels (rna) dans plusieurs domaines montrent l'utilite du paradigme rna. Neanmoins, ce paradigme a une limite : son incapacite inherente a fournir une explication des resultats obtenus. C'est essentiellement pour vaincre cette limite que plusieurs chercheurs se sont interesses a combiner les rna et les systemes symboliques de maniere a profiter de leurs avantages et eviter leurs faiblesses. Dans cette these, nous decrivons notre contribution a ce domaine de recherche. Nos travaux s'articulent autour de trois axes : l'insertion de connaissances dans un rna, l'extraction de regles a partir d'un rna et l'utilisation d'un rna pour raffiner une base de regles existante. Dans le premier axe : apres une etude critique des principales techniques developpees, nous avons propose deux techniques d'extraction de regles. La premiere, miter, associe a chaque neurone un calibre de poids. Ce dernier est traduit sous forme d'une regle symbolique de la forme m-parmi-n. La seconde, emire, extrait des regles a partir d'un rna sans tenir compte de sa structure interne et en utilisant uniquement ses entrees pertinentes. Dans le deuxieme axe : apres une presentation des principales techniques existantes, nous avons propose deux techniques d'insertion de regles symboliques dans un rna. La premiere, ruleneur, associe a chaque regle ecrite sous une forme normale disjonctive un neurone. La seconde, opneur, associe a chaque operateur logique (et ou ou) un neurone. Dans le troisieme axe, apres une presentation des differents systemes hybrides, nous avons propose le systeme ranni qui combine les deux axes precedents en utilisant un module probabiliste pour leur mise-a-jour.
Style APA, Harvard, Vancouver, ISO itp.
3

Raad, Joe. "Gestion d'identité dans des graphes de connaissances". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLA028/document.

Pełny tekst źródła
Streszczenie:
En l'absence d'une autorité de nommage centrale sur le Web de données, il est fréquent que différents graphes de connaissances utilisent des noms (IRIs) différents pour référer à la même entité. Chaque fois que plusieurs noms sont utilisés pour désigner la même entité, les faits owl:sameAs sont nécessaires pour déclarer des liens d’identité et améliorer l’exploitation des données disponibles. De telles déclarations d'identité ont une sémantique logique stricte, indiquant que chaque propriété affirmée à un nom sera également déduite à l'autre et vice versa. Bien que ces inférences puissent être extrêmement utiles pour améliorer les systèmes fondés sur les connaissances tels que les moteurs de recherche et les systèmes de recommandation, l'utilisation incorrecte de l'identité peut avoir des effets négatifs importants dans un espace de connaissances global comme le Web de données. En effet, plusieurs études ont montré que owl:sameAs est parfois incorrectement utilisé sur le Web des données. Cette thèse étudie le problème de liens d’identité erronés ou inappropriés qui sont exprimés par des liens owl:sameAs et propose des solutions différentes mais complémentaires. Premièrement, elle présente une ressource contenant la plus grande collection de liens d’identité collectés du LOD Cloud, avec un service Web à partir duquel les données et leur clôture transitive peuvent être interrogées. Une telle ressource a à la fois des impacts pratiques (elle aide les utilisateurs à trouver différents noms pour la même entité), ainsi qu'une valeur analytique (elle révèle des aspects importants de la connectivité du LOD Cloud). En outre, en s’appuyant sur cette collection de 558 millions liens d’identité, nous montrons comment des mesures de réseau telles que la structure de communauté du réseau owl:sameAs peuvent être utilisées afin de détecter des liens d’identité éventuellement erronées. Pour cela, nous attribuons un degré d'erreur pour chaque lien owl:sameAs en fonction de la densité de la ou des communautés dans lesquelles elles se produisent et de leurs caractéristiques symétriques. L'un des avantages de cette approche est qu'elle ne repose sur aucune connaissance supplémentaire. Finalement, afin de limiter l'utilisation excessive et incorrecte du owl:sameAs, nous définissons une nouvelle relation pour représenter l'identité de deux instances d’une classe dans un contexte spécifique (une sous-partie de l’ontologie). Cette relation d'identité s'accompagne d'une approche permettant de détecter automatiquement ces liens, avec la possibilité d'utiliser certaines contraintes expertes pour filtrer des contextes non pertinents. La détection et l’exploitation des liens d’identité contextuels détectés sont effectuées sur deux graphes de connaissances pour les sciences de la vie, construits en collaboration avec des experts du domaine de l’institut national de la recherche agronomique (INRA)
In the absence of a central naming authority on the Web of data, it is common for different knowledge graphs to refer to the same thing by different names (IRIs). Whenever multiple names are used to denote the same thing, owl:sameAs statements are needed in order to link the data and foster reuse. Such identity statements have strict logical semantics, indicating that every property asserted to one name, will also be inferred to the other, and vice versa. While such inferences can be extremely useful in enabling and enhancing knowledge-based systems such as search engines and recommendation systems, incorrect use of identity can have wide-ranging effects in a global knowledge space like the Web of data. With several studies showing that owl:sameAs is indeed misused for different reasons, a proper approach towards the handling of identity links is required in order to make the Web of data succeed as an integrated knowledge space. This thesis investigates the identity problem at hand, and provides different, yet complementary solutions. Firstly, it presents the largest dataset of identity statements that has been gathered from the LOD Cloud to date, and a web service from which the data and its equivalence closure can be queried. Such resource has both practical impacts (it helps data users and providers to find different names for the same entity), as well as analytical value (it reveals important aspects of the connectivity of the LOD Cloud). In addition, by relying on this collection of 558 million identity statements, we show how network metrics such as the community structure of the owl:sameAs graph can be used in order to detect possibly erroneous identity assertions. For this, we assign an error degree for each owl:sameAs based on the density of the community(ies) in which they occur, and their symmetrical characteristics. One benefit of this approach is that it does not rely on any additional knowledge. Finally, as a way to limit the excessive and incorrect use of owl:sameAs, we define a new relation for asserting the identity of two ontology instances in a specific context (a sub-ontology). This identity relation is accompanied with an approach for automatically detecting these links, with the ability of using certain expert constraints for filtering irrelevant contexts. As a first experiment, the detection and exploitation of the detected contextual identity links are conducted on two knowledge graphs for life sciences, constructed in a mutual effort with domain experts from the French National Institute of Agricultural Research (INRA)
Style APA, Harvard, Vancouver, ISO itp.
4

Saidouni, Djamel-Eddine. "Sémantique de maximalité : application au raffinement d'actions dans LOTOS". Toulouse 3, 1996. http://www.theses.fr/1996TOU30040.

Pełny tekst źródła
Streszczenie:
Cette thèse se situe dans le cadre de méthodes de conception de systèmes répartis s'appuyant sur des techniques de raffinement d'actions. En considérant la technique de description formelle lotos comme langage d'étude, elle aborde des problèmes théoriques concernant l'adéquation de différentes sémantiques du parallélisme pour la mise en oeuvre du raffinement d'actions. Bien que la sémantique d'entrelacement soit souvent considérée comme étant la plus simple pour exprimer le parallélisme, elle ne permet pas de représenter correctement le comportement de systèmes concurrents dès que les actions ne sont plus atomiques. La non atomicité des actions implique l'utilisation de sémantiques de vrai parallélisme, dont deux, la maximalité et la causalité, sont développées ici pour lotos. Dans le but de mieux comprendre différents aspects du raffinement d'actions, et de faciliter son exploitation ultérieure, nous avons défini le modèle des arbres maximaux qui est à la base de la sémantique dénotationnelle proposée pour lotos. Cette sémantique a été prouvée compatible avec la sémantique opérationnelle structurée de maximalite de lotos étendu par un opérateur de raffinement d'actions. Pour comparer sémantiques de maximalite et de causalité, la même approche technique a été utilisée pour proposer une nouvelle définition des arbres causaux, dans laquelle les références statiques ont été remplacées par des références dynamiques. Les arbres ainsi obtenus sont appelés arbres causaux dynamiques. Finalement, dans le but de passer de l'étude théorique du raffinement d'actions à sa mise en oeuvre pratique, nous avons proposé une solution permettant d'effectuer un raffinement syntaxique d'actions en lotos, et qui prend en compte le problème du rendez-vous multiple
Style APA, Harvard, Vancouver, ISO itp.
5

Kerdiles, Gwenael Nang. "Logiques de graphes conceptuels". Montpellier 2, 2001. http://www.theses.fr/2001MON20185.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Gandon, Fabien. "Graphes RDF et leur Manipulation pour la Gestion de Connaissances". Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00351772.

Pełny tekst źródła
Streszczenie:
Le premier chapitre montre que nos scénarios d'usages sont issus de problèmes de capitalisation, de gestion et de diffusion de connaissances. Nous étudions donc des mémoires individualisées (rattachées à un utilisateur donné), organisationnelles (rattachées à une organisation, notamment une entreprise) ou plus généralement communautaires (rattachées à une communauté d'intérêt ou de pratique). Nous donnons dans le premier chapitre des contextes d'application de nos travaux que nous utiliserons comme des scénarios motivants pour les chapitres suivants. Nous y définissons aussi notre positionnement en représentation des connaissances, notamment pour ce qui est de la représentation d'une mémoire à base d'ontologies.
Dans le deuxième chapitre, nous rappelons comment les formalismes à base de graphes peuvent être utilisés pour représenter des connaissances avec un degré variable de formalisation en fonction des besoins identifiés dans les scénarios d'application et des traitements à effectuer notamment pour la mise en place de webs sémantiques. Nous identifierons brièvement les caractéristiques de certains de ces formalismes qui sont utilisés dans nos travaux et les opportunités d'extensions qu'ils offrent. Nous synthétiserons aussi une initiative en cours pour factoriser la définition des structures mathématiques partagées par ces formalismes et réutiliser l'algorithmique des traitements communs à ces structures.
Dans le troisième chapitre nous expliquons que l'ontologie offre un support à d'autres types de raisonnement que la dérivation logique. Par exemple, la hiérarchie de notions contenue dans une ontologie peut être vue comme un espace métrique permettant de définir des distances pour comparer la proximité sémantique de deux notions. Nous avons mis en œuvre cette idée dans plusieurs scénarios comme l'allocation distribuée d'annotations, la recherche approchée ou le clustering. Nous résumons dans ce troisième chapitre diverses utilisations que nous avons faites des distances sémantiques et discutons notre position sur ce domaine. Nous donnons les scénarios d'utilisation et les distances utilisées dans un échantillon représentatif de projets que nous avons menés. Pour nous, cette première série d'expériences a permis de démontrer l'intérêt et le potentiel des distances, et aussi de souligner l'importance du travail restant à faire pour identifier et caractériser les familles de distances existantes et leur adéquation respective aux tâches pour lesquelles nos utilisateurs souhaitent être assistés.
Dans le quatrième chapitre, nous rappelons qu'un web sémantique, tel que nous en utilisons dans nos scénarios, qu'il soit public ou sur l'intranet d'une entreprise, repose généralement sur plusieurs serveurs web qui proposent chacun différentes ontologies et différentes bases d'annotations utilisant ces ontologies pour décrire des ressources. Les scénarios d'usage amènent souvent un utilisateur à formuler des requêtes dont les réponses combinent des éléments d'annotation distribués entre plusieurs de ces serveurs.
Ceci demande alors d'être capable :
(1) d'identifier les serveurs susceptibles d'avoir des éléments de réponse ;
(2) d'interroger des serveurs distants sur les éléments qu'ils connaissent sans surcharger le réseau;
(3) de décomposer la requête et router les sous-requêtes vers les serveurs idoines ;
(4) de recomposer les résultats à partir des réponses partielles.
Nous avons, avec le web sémantique, les briques de base d'une architecture distribuée. Le quatrième chapitre résume un certain nombre d'approches que nous avons proposées pour tenir compte de la distribution et gérer des ressources distribuées dans les webs sémantiques que nous concevons.
Les ontologies et les représentations de connaissances sont souvent dans le cœur technique de nos architectures, notamment lorsqu'elles utilisent des représentations formelles. Pour interagir avec le web sémantique et ses applications, le cinquième chapitre rappelle que nous avons besoin d'interfaces qui les rendent intelligibles pour les utilisateurs finaux. Dans nos systèmes d'inférences des éléments de connaissances sont manipulés et combinés, et même si les éléments de départ étaient intelligibles, l'intelligibilité des résultats, elle, n'est pas préservée par ces transformations.
Actuellement, et dans le meilleur des cas, les concepteurs d'interfaces mettent en œuvre des transformations ad hoc des structures de données internes en représentations d'interface en oubliant souvent les capacités de raisonnement que pourraient fournir ces représentations pour construire de telles interfaces. Dans le pire des cas, et encore trop souvent, les structures de représentation normalement internes sont directement mises à nu dans des widgets sans que cela soit justifié et, au lieu d'assister l'interaction, ces représentations alourdissent les interfaces.
Puisqu'elles reçoivent les contributions d'un monde ouvert, les interfaces du web sémantique devront être, au moins en partie, générées dynamiquement et rendues pour chaque structure devant rentrer en contact avec les utilisateurs. Le cinquième et dernier chapitre souligne cette opportunité croissante d'utiliser des systèmes à base d'ontologies dans l'assistance aux interactions avec nos utilisateurs.
Style APA, Harvard, Vancouver, ISO itp.
7

Trouillon, Théo. "Modèles d'embeddings à valeurs complexes pour les graphes de connaissances". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM048/document.

Pełny tekst źródła
Streszczenie:
L'explosion de données relationnelles largement disponiblessous la forme de graphes de connaissances a permisle développement de multiples applications, dont les agents personnels automatiques,les systèmes de recommandation et l'amélioration desrésultats de recherche en ligne.La grande taille et l'incomplétude de ces bases de donnéesnécessite le développement de méthodes de complétionautomatiques pour rendre ces applications viables.La complétion de graphes de connaissances, aussi appeléeprédiction de liens, se doit de comprendre automatiquementla structure des larges graphes de connaissances (graphes dirigéslabellisés) pour prédire les entrées manquantes (les arêtes labellisées).Une approche gagnant en popularité consiste à représenter ungraphe de connaissances comme un tenseur d'ordre 3, etd'utiliser des méthodes de décomposition de tenseur pourprédire leurs entrées manquantes.Les modèles de factorisation existants proposent différentscompromis entre leur expressivité, et leur complexité en temps et en espace.Nous proposons un nouveau modèle appelé ComplEx, pour"Complex Embeddings", pour réconcilier expressivité etcomplexité par l'utilisation d'une factorisation en nombre complexes,dont nous explorons le lien avec la diagonalisation unitaire.Nous corroborons notre approche théoriquement en montrantque tous les graphes de connaissances possiblespeuvent être exactement décomposés par le modèle proposé.Notre approche, basées sur des embeddings complexesreste simple, car n'impliquant qu'un produit trilinéaire complexe,là où d'autres méthodes recourent à des fonctions de compositionde plus en plus compliquées pour accroître leur expressivité.Le modèle proposé ayant une complexité linéaire en tempset en espace est passable à l'échelle, tout endépassant les approches existantes sur les jeux de données de référencepour la prédiction de liens.Nous démontrons aussi la capacité de ComplEx àapprendre des représentations vectorielles utiles pour d'autres tâches,en enrichissant des embeddings de mots, qui améliorentles prédictions sur le problème de traitement automatiquedu langage d'implication entre paires de phrases.Dans la dernière partie de cette thèse, nous explorons lescapacités de modèles de factorisation à apprendre lesstructures relationnelles à partir d'observations.De part leur nature vectorielle,il est non seulement difficile d'interpréter pourquoicette classe de modèles fonctionne aussi bien,mais aussi où ils échouent et comment ils peuventêtre améliorés. Nous conduisons une étude expérimentalesur les modèles de l'état de l'art, non pas simplementpour les comparer, mais pour comprendre leur capacitésd'induction. Pour évaluer les forces et faiblessesde chaque modèle, nous créons d'abord des tâches simplesreprésentant des propriétés atomiques despropriétés des relations des graphes de connaissances ;puis des tâches représentant des inférences multi-relationnellescommunes au travers de généalogies synthétisées.À partir de ces résultatsexpérimentaux, nous proposons de nouvelles directionsde recherches pour améliorer les modèles existants,y compris ComplEx
The explosion of widely available relational datain the form of knowledge graphsenabled many applications, including automated personalagents, recommender systems and enhanced web search results.The very large size and notorious incompleteness of these data basescalls for automatic knowledge graph completion methods to make these applicationsviable. Knowledge graph completion, also known as link-prediction,deals with automatically understandingthe structure of large knowledge graphs---labeled directed graphs---topredict missing entries---labeled edges. An increasinglypopular approach consists in representing knowledge graphs as third-order tensors,and using tensor factorization methods to predict their missing entries.State-of-the-art factorization models propose different trade-offs between modelingexpressiveness, and time and space complexity. We introduce a newmodel, ComplEx---for Complex Embeddings---to reconcile both expressivenessand complexity through the use of complex-valued factorization, and exploreits link with unitary diagonalization.We corroborate our approach theoretically and show that all possibleknowledge graphs can be exactly decomposed by the proposed model.Our approach based on complex embeddings is arguably simple,as it only involves a complex-valued trilinear product,whereas other methods resort to more and more complicated compositionfunctions to increase their expressiveness. The proposed ComplEx model isscalable to large data sets as it remains linear in both space and time, whileconsistently outperforming alternative approaches on standardlink-prediction benchmarks. We also demonstrateits ability to learn useful vectorial representations for other tasks,by enhancing word embeddings that improve performanceson the natural language problem of entailment recognitionbetween pair of sentences.In the last part of this thesis, we explore factorization models abilityto learn relational patterns from observed data.By their vectorial nature, it is not only hard to interpretwhy this class of models works so well,but also to understand where they fail andhow they might be improved. We conduct an experimentalsurvey of state-of-the-art models, not towardsa purely comparative end, but as a means to get insightabout their inductive abilities.To assess the strengths and weaknesses of each model, we create simple tasksthat exhibit first, atomic properties of knowledge graph relations,and then, common inter-relational inference through synthetic genealogies.Based on these experimental results, we propose new researchdirections to improve on existing models, including ComplEx
Style APA, Harvard, Vancouver, ISO itp.
8

Archer, Vincent. "Graphes linguistiques multiniveau pour l'extraction de connaissances : l'exemple des collocations". Phd thesis, Université Joseph Fourier (Grenoble ; 1971-2015), 2009. http://www.theses.fr/2009GRE10127.

Pełny tekst źródła
Streszczenie:
Pour modéliser au mieux les phénomènes linguistiques dans les systèmes de traitement automatique des langues (traduction, analyse, etc. ), il faut disposer de ressources de qualité. Or, les ressources existantes sont souvent incomplètes et ne permettent pas de traiter correctement les données. Cette thèse s'intéresse à l'acquisition de connaissances linguistiques, plus précisément à leur extraction à partir de corpus. Nous étudions en particulier le problème des collocations, ces couples de termes dont l'un est choisi en fonction de l'autre pour exprimer un sens particulier (comme « pluie battante » où « pluie » exprime l'intensification). Pour permettre l'acquisition de données à grande échelle, il faut la rendre facile à réaliser de manière automatique, et simple à paramétrer par des linguistes aux connaissances limitées en programmation ; cela nécessite une modélisation adaptée et précise des données et des processus. Nous avons réalisé et décrivons MuLLinG, modèle de graphes linguistiques multiniveau, où chaque niveau représente l'information d'une manière différente,et les opérations de manipulation de ces graphes. Ce modèle permet de représenter et traiter divers types de ressources. En effet, les opérations associées ont été écrites pour être les plus génériques possibles : elles sont indépendantes de ce que peuvent représenter les nœuds et les arcs du graphe, et de la tâche à réaliser. Cela permet à notre modèle, mis en œuvre et utilisé pour plusieurs expérimentations (entre autres l'extraction de collocations), de voir un processus parfois complexe d'extraction de connaissances linguistiques comme une succession d'opérations simples de manipulation de graphes
In order to model at best linguistic phenomena, natural language processing systems need to have quality ressources at their disposal, yet existing ressources are most often incomplete and do not allow to treat data in an adequate manner in process like translation, analysis, etc. This thesis is about acquisition of linguistic knowledge, and more precisely about the extraction of that knowledge from corpora where it appears. We study especially the problem of the collocations, these couple of terms where one term is chosen in function of the other one to express a particular meaning (as « driving rain », where « driving » is used to express the intensification). To allow large-scale data acquisition, it is necessary to make it easy to realize in an automatic manner, and simple to configure by linguists with limited knowledge in computer programming. For that reason, we have to rely on a precise and suitable model for data and process. We describe MuLLinG, the multilevel linguistic graph we realized, where each level represents information in a different manner, and operations for the manipulation of these graphs. That model, based on a simple structure (the graph one), allows to represent, treat, and manage diverse kinds of ressources. Indeed, associated operations were written in order to be as most generic as possible, which means that they are independent of what nodes and edges represents, and of the task to realize. That enables our model, which has been implemented and used for several experiments, some concerning collocation extraction, to view a process (sometimes complex) of linguistic knowledge extraction, as a succession of small graph manipulation operations
Style APA, Harvard, Vancouver, ISO itp.
9

Naudin, Antoine. "Impact des connaissances initiales sur la calculabilité distribuée". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0259/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions l’impact des connaissances sur la calculabilité distribuée de problèmes au sein des réseaux distribués. Dans une première partie, nous caractérisons les connaissances nécessaires et suffisantes permettant de résoudre des problèmes tels la cartographie, l’élection et la k-élection dans un modèle particulier: les participants inconnus. Pour chacun des problèmes étudiés, une condition caractérisant les connaissances nécessaires et suffisantes est fournie et un algorithme utilisant toute connaissance satisfaisant notre condition est proposé (et montré correct). Nous étendons ensuite le modèle aux graphes anonymes. Avec la même méthodologie, nous présentons une condition nécessaire sur la connaissance à fournir aux processus pour résoudre le problème de l’élection. Dans la seconde partie, nous étudions l’impact des connaissances locales sur la calculabilité du problème de l’exploration de graphes anonymes avec arrêt. Nous introduisons un nouveau modèle d’agent mobile doté d’un capteur spécial, nommé jumelles, lui permettant de percevoir le graphe induit par les sommets adjacent à sa position dans le réseau. Dans ce modèle, nous caractérisons exactement les graphes explorables sans connaissance globale et nous proposons un algorithme les explorant. Cette connaissance locale apportée à un coût car la complexité de tout algorithme d’exploration pour ces graphes croît plus vite que toute fonction calculable. Pour finir, nous montrons que de larges familles de graphes peuvent être explorées efficacement avec jumelles: graphes triangulés, graphes de Johnson et certaines triangulations planaires
In this study, we show how knowledge impacts the computability in distributed systems. First, we characterize what we need to know to elect in the unknown participant model. This model is a natural extension for the message passing model that formalises dynamicity that occurs in some networks. We give a necessary and sufficient condition on the knowledge needed to solve the following fundamental problems : map construction, leader election and k-leader election. For each of them, we provide an algorithm solving the problem using any knowledge satisfying our condition. Then, we extend the model to anonymous networks. We characterize, with the same methodology, the knowledge needed to solve an election in this model and we provide an algorithm using such a knowledge and a bound on the size of the network. In the second part, we study the impact of local knowledge on the computability of the anonymous graph exploration problem. We introduce a new model of mobile agents where an agent is endowed with binoculars, a local sensor permitting to perceive the graph induced by the vertices adjacent to its location. In this model, we characterize the graphs that can be explored by a single mobile agent without any global information and we provide an algorithm exploring all of them. Unfortunately, universal algorithm has a cost : The number of moves required by such an algorithm cannot be bounded by a computable function. Finally, we prove that large classes of graphs like chordal graphs, Johnson graphs, . . . can be explored in a linear number of moves using binoculars by providing an exploration algorithm for the family of Weetman graphs
Style APA, Harvard, Vancouver, ISO itp.
10

Egyed-Zsigmond, Elöd. "Gestion des connaissances dans une base de documents multimédias". Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0055/these.pdf.

Pełny tekst źródła
Streszczenie:
Nos recherches se sont déroulées dans le cadre d'un projet RNRT appelé RECIS en collaboration avec FT R&D et l'INRIA. Le but de ce projet est d'étudier les modalités pour enrichir les services d'accès au contenu multimédia. Nous avons mis en place un modèle d'annotation de documents audiovisuels : E-SIA. Ce modèle représente les fragments de documents, les annotations, ainsi que les éléments de structuration des annotation par un graphe. Le modèle permet de documenter et de guider l'annotation tout en laissant une grande liberté aux utilisateurs. Nous avons développé un prototype client serveur qui permet l'annotation manuelle et automatique de documents ainsi que la navigation et la recherche dans les annotations. Nous avons étendu notre modèle d'annotation pour créer un cadre de traçage, de capitalisation et de réutilisation de l'expérience : Trèfle. Ce modèle permet de tracer l'utilisation d'un logiciel de manière contextuelle selon un modèle d'utilisation et d'un modèle d'observation dans un graphe. Nous considérons que dans une application informatique des utilisateurs manipulent des objets à l'aide de procédés
Our research has been carried out as a part of the RNRT project RECIS in collaboration with FT R&D and the INRIA. The goal of this project is to study different techniques to enrich multimedia content access services. We created an audiovisual annotation model : E-SIA. This model represents documents fragments, annotations as well as annotation structuring elements as graph. The model enables to document and guide annotation providing in meantime a large degree of freedom to users. We have developed a client-server prototype application enabling manual and automatic video annotation as well as the navigation an search in these annotations. We have extended our annotation model in order to create an experience tracing, capitalization and reuse framework: Trèfle (Club). This model enables to trace in a contextual manner the use of a computer program following a use and an observation model in a graph. We consider that in a computer program users manipulate objects using procedures
Style APA, Harvard, Vancouver, ISO itp.
11

Egyed-Zsigmond, Elod Pinon Jean-Marie Mille Alain. "Gestion des connaissances dans une base de documents multimédias". Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=egyed_zsigmond.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
12

Gazzotti, Raphaël. "Prédiction d’hospitalisation par la génération de caractéristiques extraites de graphes de connaissances". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4018.

Pełny tekst źródła
Streszczenie:
L’utilisation des dossiers médicaux électroniques (DMEs) et la prescription électronique sont des priorités dans les différents plans d’action européens sur la santé connectée. Le développement du DME constitue une formidable source de données ; il capture tous les épisodes symptomatiques dans la vie d’un patient et doit permettre l’amélioration des pratiques médicales et de prises en charge, à la condition de mettre en place des procédures de traitement automatique.A ce titre nous travaillons sur la prédiction d’hospitalisation à partir des DMEs et après les avoir représentés sous forme vectorielle, nous enrichissons ces modèles afin de profiter des connaissances issues de référentiels, qu’ils soient généralistes ou bien spécifiques dans le domaine médical, et cela, dans le but d’améliorer le pouvoir prédictif d’algorithmes de classification automatique. Déterminer les connaissances à extraire dans l’objectif de les intégrer aux représentations vectorielles est à la fois une tâche subjective et destinée aux experts, nous verrons une procédure semi-supervisée afin d’automatiser en partie ce processus.Du fruit de nos recherches, nous avons ébauché un produit destiné aux médecins généralistes afin de prévenir l’hospitalisation de leur patient ou du moins améliorer son état de santé. Ainsi, par le biais d’une simulation, il sera possible au médecin d’évaluer quels sont les facteurs impliqués dans le risque d’hospitalisation de son patient et de définir les actions préventives à planifier pour éviter l’apparition de cet événement.Cet algorithme d’aide à la décision a pour visée d’être directement intégré au logiciel de consultation des médecins et nous avons pour ce faire développé une interface graphique élaborée en collaboration avec de nombreux corps de métiers avec notamment les premiers concernés, des médecins généralistes
The use of electronic medical records (EMRs) and electronic prescribing are priorities in the various European action plans on connected health. The development of the EMR is a tremendous source of data; it captures all symptomatic episodes in a patient’s life and should lead to improved medical and care practices, as long as automatic treatment procedures are set up.As such, we are working on hospitalization prediction based on EMRs and after having represented them in vector form, we enrich these models in order to benefit from the knowledge resulting from referentials, whether generalist or specific in the medical field, in order to improve the predictive power of automatic classification algorithms. Determining the knowledge to be extracted with the objective of integrating it into vector representations is both a subjective task and intended for experts, we will see a semi-supervised procedure to partially automate this process.As a result of our research, we designed a product for general practitioners to prevent their patients from being hospitalized or at least improve their health. Thus, through a simulation, it will be possible for the doctor to evaluate the factors involved on the risk of hospitalization of his patient and to define the preventive actions to be planned to avoid the occurrence of this event.This decision support algorithm is intended to be directly integrated into the physician consultation software. For this purpose, we have developed in collaboration with many professional bodies, including the first to be concerned, general practitioners
Style APA, Harvard, Vancouver, ISO itp.
13

Faci, Adam. "Représentation, simulation et exploitation de connaissances dans le formalisme des graphes conceptuels". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS419.

Pełny tekst źródła
Streszczenie:
Cette thèse aborde le domaine de la représentation des connaissances sous forme de graphes conceptuels, un formalisme de représentation structurée des connaissances proposant des outils de manipulation efficaces. Il existe une multitudes de problématiques en intelligence artificielles symbolique concernant la représentation des connaissances en général, et en particulier sur la représentation concise d’un grand nombre d’informations. Les graphes conceptuels, par la possibilité de représenter visuellement différentes sortes de connaissances, notamment ontologiques et factuelle, et la proposition d’outils de manipulation efficaces, offrent un cadre parfait pour la réponse à ces problématiques. Nous effectuons une étude comparative des extensions floues des graphes conceptuels, puis nous proposons un algorithme de simulation de graphes conceptuels ainsi qu'un algorithme efficace d'extraction de motifs fréquents non-redondants, avec les connaissances ontologiques
This thesis addresses the field of knowledge representation in conceptual graphs, a structured knowledge representation formalism that provides efficient manipulation tools. There are many challenges in symbolic artificial intelligence concerning the representation of knowledge in general, and in particular the concise representation of a large amount of information. Conceptual graphs, by their ability to visually represent different kinds of knowledge, mainly ontological and factual, and by offering efficient manipulation tools, provide a perfect framework for the answer to these problems. We conduct a comparative study of fuzzy extensions of conceptual graphs, then we propose an algorithm for conceptual graphs simulation as well as an efficient algorithm for extracting frequent patterns that are not redundant with ontological knowledge
Style APA, Harvard, Vancouver, ISO itp.
14

Leclère, Michel. "Les connaissances du niveau terminologique du modèle des graphes conceptuels : construction et exploitation". Montpellier 2, 1995. http://www.theses.fr/1995MON20257.

Pełny tekst źródła
Streszczenie:
Le modele des graphes conceptuels permet la representation de connaissances par la description de concepts et de relations entre ces concepts. On peut distinguer plusieurs niveaux de connaissance: un niveau terminologique, un niveau assertionnel, un niveau regles cette these est consacree au niveau fondamental, le niveau terminologique. Nous exposons un ensemble de protocoles cooperatifs d'aide a la construction des taxinomies de types de concepts et de relations. Certains des types de ces taxinomies peuvent etre definis. Nous proposons d'utiliser le raisonnement par classification pour introduire ces types dans leur taxinomie. Un algorithme de projection, operation fondamentale du modele des graphes conceptuels, est presente. Cette operation permet la comparaison des types definis lors de la classification. Enfin, nous nous interessons a la possibilite d'introduire des types partiellement definis dans les taxinomies et a la prise en compte des types definis dans les raisonnements effectues au niveau assertionnel
Style APA, Harvard, Vancouver, ISO itp.
15

Raimbault, Thomas. "Transition de modèles de connaissances : un système de connaissance fondé sur OWL, graphes conceptuels et UML". Phd thesis, Nantes, 2008. https://archive.bu.univ-nantes.fr/pollux/show/show?id=4ef8d797-9884-4506-8973-e5bc095e2459.

Pełny tekst źródła
Streszczenie:
La thèse soutenue est que l'utilisation conjointe de plusieurs modèles de connaissances pour représenter des connaissances et raisonner permet de modéliser élégamment des connaissances et de résoudre des problèmes complexes. Cette thèse propose des transitions de modèles entre les modèles de connaissances OWL, Graphes Conceptuels et UML. L'originalité de cette thèse réside en la modélisation centralisée de connaissances au sein d'un système de connaissance et en l'action de faire transiter ces connaissances d'un modèle à un autre du système au fur et à mesure des besoins exigés par la modélisation et les raisonnements. L'objectif principal de ces transitions de modèles de connaissances est double. D'une part, il s'agit de bénéficier de manière relativement aisée des différences d'expressivités entre les modèles et ainsi aboutir à un système de connaissance au pouvoir expressif fort. D'autre part, cela permet lors de la conception et l'exploitation d'une modélisation, d'utiliser les modèles qu'on connaît ou les mieux adaptés. Les outils de chaque modèle peuvent ainsi être utilisés sur les connaissances obtenues, offrant une complémentarité d'utilisation de ces modèles
The purpose of this thesis is using multiple knowledge models for representating knowledge and reasoning on this represented knowledge. This thesis proposes transitions between several knowledge models\string: OWL, Conceptual Graphs and UML. The originality of this thesis lies both in the centralized modeling knowledge within a knowledge system and in action to pass this knowledge from one model to another of system as needs required by modeling and reasoning. The main goal of these transitions knowledge models is twofold. On the one hand, it is to benefit from relatively easy using expressiveness of models to obtain as result a strong expressive power. On the other hand, it helps in the design and operation of a modeling, using best knowed models or best suited models. The tools of each model can then be used on represented knowledge, providing complementary use of these models
Style APA, Harvard, Vancouver, ISO itp.
16

Guinaldo, Olivier. "Etude d'un gestionnaire d'ensembles de graphes conceptuels". Montpellier 2, 1996. http://www.theses.fr/1996MON20189.

Pełny tekst źródła
Streszczenie:
Depuis sa presentation par j. F. Sowa en 1984, le modele des graphes conceptuels n'a cesse d'interesser un nombre croissant d'equipes de recherche, qui l'etudient formellement ou qui l'utilisent dans des cadres divers, comme les sciences medicales, les bases de donnees ou le traitement automatique de langue naturelle. Cependant, comme tout modele de representation de connaissances, il est confronte a la gestion de la connaissance des que celle-ci devient importante. Dans cette optique, le travail presente porte essentiellement sur les problemes theoriques lies a la gestion de grands ensembles de graphes conceptuels quelconques. Les graphes conceptuels etant munis d'une relation d'ordre (la relation de specialisation) calculee par l'operation de projection (operation liee au probleme np-complet de l'existence d'un morphisme entre deux graphes), les techniques de gestion etudiees s'inscrivent dans le cadre general de la gestion d'ensembles ordonnes, et s'appuient sur des algorithmes efficaces de projection et d'isomorphisme de graphes conceptuels. Nous mettons en uvre ces techniques dans l'elaboration d'un premier gestionnaire de bases de graphes conceptuels stockees en memoire secondaire, totalement integre a la plate-forme logicielle cogito (une boite a outils pour les graphes conceptuels). Dans un deuxieme temps, nous presentons le systeme rap: un systeme d'interrogation de connaissances exprimees en termes de graphes conceptuels, fonde sur les fonctionnalites offertes par le gestionnaire precedent
Style APA, Harvard, Vancouver, ISO itp.
17

Carbonneill, Boris. "Vers un système de représentation de connaissances et de raisonnement fondé sur les graphes conceptuels". Montpellier 2, 1996. http://www.theses.fr/1996MON20015.

Pełny tekst źródła
Streszczenie:
Le travail presente fait partie d'un projet de developpement d'un systeme de representation de connaissances et de raisonnement fonde sur les graphes conceptuels. Apres un tour d'horizon des systemes utilisant les graphes conceptuels, nous presentons une formalisation du modele utilise, celui des graphes conceptuels simples. A partir d'une base de connaissances et d'une question representees respectivement sous forme d'un ensemble de graphes conceptuels et d'un graphe conceptuel, nous definissons tout d'abord la notion de reponse exacte, et proposons un algorithme de recherche, guide par la question, correct et complet. Par la suite, la notion de reponse exacte et l'algorithme de recherche correspondant sont etendus afin de prendre en compte le mecanisme de definition de types de concepts offert par le modele des graphes conceptuels. Deux autres volets de ce travail concernent le developpement d'heuristiques de raisonnement. Nous presentons dans un premier temps des heuristiques de recherche de reponse exacte ; nous proposons ensuite des heuristiques destinees a palier l'absence de reponse exacte, en produisant des reponses pertinentes. Ces deux mecanismes sont illustres dans le cadre de l'implementation du systeme rock. Notre derniere contribution concerne une extension du modele initial, les graphes conceptuels emboites, pour lesquels nous formalisons la notion de reponse exacte, et proposons les algorithmes de recherche adaptes
Style APA, Harvard, Vancouver, ISO itp.
18

De, Oliveira Joffrey. "Gestion de graphes de connaissances dans l'informatique en périphérie : gestion de flux, autonomie et adaptabilité". Electronic Thesis or Diss., Université Gustave Eiffel, 2023. http://www.theses.fr/2023UEFL2069.

Pełny tekst źródła
Streszczenie:
Les travaux de recherche menés dans le cadre de cette thèse de doctorat se situent à l'interface du Web sémantique, des bases de données et de l'informatique en périphérie (généralement dénotée Edge computing). En effet, notre objectif est de concevoir, développer et évaluer un système de gestion de bases de données (SGBD) basé sur le modèle de données Resource Description Framework (RDF) du W3C, qui doit être adapté aux terminaux que l'on trouve dans l'informatique périphérique. Les applications possibles d'un tel système sont nombreuses et couvrent un large éventail de secteurs tels que l'industrie, la finance et la médecine, pour n'en citer que quelques-uns. Pour preuve, le sujet de cette thèse a été défini avec l'équipe du laboratoire d'informatique et d'intelligence artificielle (CSAI) du ENGIE Lab CRIGEN. Ce dernier est le centre de recherche et de développement d'ENGIE dédié aux gaz verts (hydrogène, biogaz et gaz liquéfiés), aux nouveaux usages de l'énergie dans les villes et les bâtiments, à l'industrie et aux technologies émergentes (numérique et intelligence artificielle, drones et robots, nanotechnologies et capteurs). Le CSAI a financé cette thèse dans le cadre d'une collaboration de type CIFRE. Les fonctionnalités d'un système satisfaisant ces caractéristiques doivent permettre de détecter de manière pertinente et efficace des anomalies et des situations exceptionnelles depuis des mesures provenant de capteurs et/ou actuateurs. Dans un contexte industriel, cela peut correspondre à la détection de mesures, par exemple de pression ou de débit sur un réseau de distribution de gaz, trop élevées qui pourraient potentiellement compromettre des infrastructures ou même la sécurité des individus. Le mode opératoire de cette détection doit se faire au travers d'une approche conviviale pour permettre au plus grand nombre d'utilisateurs, y compris les non-programmeurs, de décrire les situations à risque. L'approche doit donc être déclarative, et non procédurale, et doit donc s'appuyer sur un langage de requêtes, par exemple SPARQL. Nous estimons que l'apport des technologies du Web sémantique peut être prépondérant dans un tel contexte. En effet, la capacité à inférer des conséquences implicites depuis des données et connaissances explicites constitue un moyen de créer de nouveaux services qui se distinguent par leur aptitude à s'ajuster aux circonstances rencontrées et à prendre des décisions de manière autonome. Cela peut se traduire par la génération de nouvelles requêtes dans certaines situations alarmantes ou bien en définissant un sous-graphe minimal de connaissances dont une instance de notre SGBD a besoin pour répondre à l'ensemble de ses requêtes. La conception d'un tel SGBD doit également prendre en compte les contraintes inhérentes de l'informatique en périphérie, c'est-à-dire les limites en terme de capacité de calcul, de stockage, de bande passante et parfois énergétique (lorsque le terminal est alimenté par un panneau solaire ou bien une batterie). Il convient donc de faire des choix architecturaux et technologiques satisfaisant ces limitations. Concernant la représentation des données et connaissances, notre choix de conception s'est porté sur les structures de données succinctes (SDS) qui offrent, entre autres, les avantages d'être très compactes et ne nécessitant pas de décompression lors du requêtage. De même, il a été nécessaire d'intégrer la gestion de flux de données au sein de notre SGBD, par exemple avec le support du fenêtrage dans des requêtes SPARQL continues, et des différents services supportés par notre système. Enfin, la détection d'anomalies étant un domaine où les connaissances peuvent évoluer, nous avons intégré le support des modifications au niveau des graphes de connaissances stockés sur les instances des clients de notre SGBD. Ce support se traduit par une extension de certaines structures SDS utilisées dans notre prototype
The research work carried out as part of this PhD thesis lies at the interface between the Semantic Web, databases and edge computing. Indeed, our objective is to design, develop and evaluate a database management system (DBMS) based on the W3C Resource Description Framework (RDF) data model, which must be adapted to the terminals found in Edge computing.The possible applications of such a system are numerous and cover a wide range of sectors such as industry, finance and medicine, to name but a few. As proof of this, the subject of this thesis was defined with the team from the Computer Science and Artificial Intelligence Laboratory (CSAI) at ENGIE Lab CRIGEN. The latter is ENGIE's research and development centre dedicated to green gases (hydrogen, biogas and liquefied gases), new uses of energy in cities and buildings, industry and emerging technologies (digital and artificial intelligence, drones and robots, nanotechnologies and sensors). CSAI financed this thesis as part of a CIFRE-type collaboration.The functionalities of a system satisfying these characteristics must enable anomalies and exceptional situations to be detected in a relevant and effective way from measurements taken by sensors and/or actuators. In an industrial context, this could mean detecting excessively high measurements, for example of pressure or flow rate in a gas distribution network, which could potentially compromise infrastructure or even the safety of individuals. This detection must be carried out using a user-friendly approach to enable as many users as possible, including non-programmers, to describe risk situations. The approach must therefore be declarative, not procedural, and must be based on a query language, such as SPARQL.We believe that Semantic Web technologies can make a major contribution in this context. Indeed, the ability to infer implicit consequences from explicit data and knowledge is a means of creating new services that are distinguished by their ability to adjust to the circumstances encountered and to make autonomous decisions. This can be achieved by generating new queries in certain alarming situations, or by defining a minimal sub-graph of knowledge that an instance of our DBMS needs in order to respond to all of its queries.The design of such a DBMS must also take into account the inherent constraints of Edge computing, i.e. the limits in terms of computing capacity, storage, bandwidth and sometimes energy (when the terminal is powered by a solar panel or a battery). Architectural and technological choices must therefore be made to meet these limitations. With regard to the representation of data and knowledge, our design choice fell on succinct data structures (SDS), which offer, among other advantages, the fact that they are very compact and do not require decompression during querying. Similarly, it was necessary to integrate data flow management within our DBMS, for example with support for windowing in continuous SPARQL queries, and for the various services supported by our system. Finally, as anomaly detection is an area where knowledge can evolve, we have integrated support for modifications to the knowledge graphs stored on the client instances of our DBMS. This support translates into an extension of certain SDS structures used in our prototype
Style APA, Harvard, Vancouver, ISO itp.
19

Truong, Quoc Dinh. "Approches par les graphes pour l'aide à la sélection, l'analyse et la visualisation des connaissances". Toulouse 2, 2008. http://www.theses.fr/2008TOU20053.

Pełny tekst źródła
Streszczenie:
L’Extraction de Connaissances à partir de Données est un processus qui s’inscrit dans une démarche d’aide à la décision : les données utiles sont d’abord sélectionnées parmi les données disponibles avant d'être transformées en information dont on va extraire une connaissance utile. Cependant, l'intelligibilité et l’utilisabilité des connaissances extraites dépendent essentiellement de la manière utilisée pour les restituer. Les travaux de recherche présentés dans cette thèse s'inscrivent dans cette problématique et s’intéressent à l’utilisation de la théorie de graphes comme outils de modélisation, restitution et de résolution de problèmes. Ces travaux s’articulent autour de la recherche d’information pour la sélection et le filtrage des données brutes utilisées pour l'extraction de connaissances, leur analyse et la visualisation des connaissances qui aident à la représentation des connaissances extraites ainsi qu’à leur découverte
Knowledges discovery in databases is a decision support process for which useful data is retrieved from available data before being transformed to information from which useful knowledge will be extracted. However, the intelligibility and the usability of obtained knowledges depend crucially on the way we represent these knowledges. The research works we present deal with this important issue and use graph theory as a mean to achieve good knowledge presentation along with problem modeling and solving. This work deals with information retrieval for raw data selection and filtering, information analysis and knowledge visualization. Knowledge visualization is intended not only to help to represent the obtained knowledge but also to retrieve this knowledge
Style APA, Harvard, Vancouver, ISO itp.
20

Raimbault, Thomas. "Transition de modèles de connaissances - Un système de connaissance fondé sur OWL, Graphes conceptuels et UML". Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00482664.

Pełny tekst źródła
Streszczenie:
La thèse soutenue est que l'utilisation conjointe de plusieurs modèles de connaissances pour représenter des connaissances et raisonner permet élégamment de modéliser des connaissances et de résoudre des problèmes complexes. Cette thèse propose des transitions de modèles entre les modèles de connaissances OWL, Graphes Conceptuels et UML. L'originalité de cette thèse réside en la modélisation centralisée de connaissances au sein d'un système de connaissance et en l'action de faire transiter ces connaissances d'un modèle à un autre du système au fur et à mesure des besoins exigés par la modélisation et les raisonnements. L'objectif principal de ces transitions de modèles de connaissances est double. D'une part, il s'agit de bénéficier de manière relativement aisée des différences d'expressivités entre les modèles et ainsi aboutir à un système de connaissance au pouvoir expressif fort. D'autre part, cela permet lors de la conception et l'exploitation d'une modélisation, d'utiliser les modèles qu'on connaît ou les mieux adaptés. Les outils de chaque modèle peuvent ainsi être utilisés sur les connaissances obtenues, offrant une complémentarité d'utilisation de ces modèles.
Style APA, Harvard, Vancouver, ISO itp.
21

Simonet, Geneviève. "Héritage non monotone à base de chemins et de graphes partiels". Montpellier 2, 1994. http://www.theses.fr/1994MON20151.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
22

Pinaud, Bruno. "Contribution à la visualisation des connaissances par des graphes dans une mémoire d'entreprise : application sur le serveur Atanor". Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00335934.

Pełny tekst źródła
Streszczenie:
Le bon déroulement d'un processus de gestion des connaissances passe par l'utilisation de méthodes efficaces de visualisation qui permettent une compréhension aisée des différents modèles de connaissances utilisés. Les retours d'expériences avec le système de gestion des connaissances Atanor, qui est orienté vers le déploiement des connaissances dans un contexte opérationnel portant sur des systèmes complexes, ont montré que le modèle d'arbres actuellement utilisé pour la visualisation des modèles de connaissances n'est pas intuitif. Des redondances de sommets trop nombreuses peuvent entraîner des difficultés de lecture et cacher des caractéristiques importantes. Pour résoudre ces problèmes nous proposons le modèle Graph'Atanor qui est basé sur des graphes en niveaux.
Le passage au modèle de graphes pose le problème de sa représentation visuelle. Les tracés doivent rester lisibles et compréhensibles par les utilisateurs. Ceci se traduit notamment par le respect de critères esthétiques qui permettent de modéliser un problème d'optimisation combinatoire consistant à trouver un ordre optimal des sommets dans chaque niveau. Pour résoudre ce problème, nous avons développé un algorithme génétique qui possède deux particularités : deux opérateurs de croisements spécifiques et une hybridation par une recherche locale. Les expérimentations montrent que pour des graphes de taille standard, l'algorithme génétique donne de meilleurs résultats que les autres méthodes que nous connaissons. La comparaison des modèles de représentation des connaissances sur un exemple industriel montre qu'en plus de faciliter la lecture, Graph'Atanor permet de facilement suivre la trace des utilisateurs et de mettre en avant les sommets critiques.
Style APA, Harvard, Vancouver, ISO itp.
23

Auillans, Pascal. "Modélisation de réseaux sémantiques par des hypergraphes et applications". Bordeaux 1, 2005. http://www.theses.fr/2005BOR12966.

Pełny tekst źródła
Streszczenie:
Les évolutions du Web, prévues par le W3C, doivent favoriser le déploiement de services de meilleure qualité. Pour cela, la nouvelle architecture intègre un système de représentation de connaissances appelé Web Sémantique qui constitue la mise en oeuvre d'un modèle théorique reposant sur la logique descriptive. Cette thèse, dont les recherches s'appliquent plus particulièrement au système de représentation de connaissances Topic Maps, a pour objectif de proposer une alternative à l'utilisation de la logique descriptive. Nous montrerons l'intérêt d'une structuration fondée sur la théorie des graphes dans le domaine de la représentation de connaissances. Cette thèse s'est inscrite, à l'origine, dans le cadre du projet européen KePT ayant pour objectif la mise en place, pour l'application ITM de la société Mondeca, d'un environnement de visualisation de connaissances organisées selon la norme ISO 13250 Topic Maps. Les recherches sur le fractionnement de graphes menées dans le cadre du projet KePT ont montré le besoin d'une meilleure compréhension des topic maps et d'outils adaptés à la mise en oeuvre de traitements efficaces. Ces besoins nous ont conduit à proposer un modèle formel fondé sur la théorie des graphes qui permet notamment l'expression de propriétés structurelles non exprimables par la logique du premier ordre. Outre son adaptation à des études théoriques, ce modèle formel permet l'adaptation d'algorithmes efficaces de la théorie des graphes à la mise en place de traitements difficilement envisageables auparavant dans une application industrielle
The goal of the Web evolutions planned by the W3C is to enable the improvement of web services quality. To this end, W3C has added to the Web architecture a knowledge management system named Semantic Web, which implements a theoretical model relying on descriptive logic. This thesis, of which researches are more specifically applied to another knowledge representation system named Topic Maps, aims to rovide an alternative to the use of descriptive logic. We will show how graph theory can be used to structure the knowledge, hence benefit to the field of knowledge representation. This thesis initialy stands within the european project KePT, which aimed to implement a visualization interface for knowledge, structured according to the norm ISO 13250 Topic Maps, in Mondeca's ITM application. Research on graph clustering made for this project raised the need of both a better understanding of the topic maps structure, and tools that enable implementation of efficient processing. Therefore, we propose a formal model relying on graph theory that enables to express structural properties, beyond the expressive power of first order logic. Our model is not only suited for theoretical studies, but also for the adaptation of fast graph theory algorithms to knowledge processing. These processing were previously hardly implementable in industrial applications
Style APA, Harvard, Vancouver, ISO itp.
24

Jacquelinet, Christian. "Modélisation du langage naturel et représentation des connaissances par graphes conceptuels : applications au domaine de l'information médicale". Rennes 1, 2002. http://www.theses.fr/2002REN1B060.

Pełny tekst źródła
Streszczenie:
Cette thèse aborde la compréhension automatique du langage médical comme un problème de modélisation. Elle se place dans le champ de l'intelligence artificielle et des sciences cognitives appliquées à la médecine. Elle se focalise sur l'étape initiale du processus de compréhension : la transformation d'un énoncé en une structure supposée en supporter la signification. Un modèle sémiotique est proposé pour cette transformation qui opère à partir de l'énoncé une extraction de connaissances. Elle débute par une phase d'analyse lexicale qui aboutit à la transduction des signes lexicaux de l'énoncé en atomes de connaissance appelés des " signes cognitifs ". Ceux-ci sont ensuite assemblés au cours d'une phase de synthèse cognitive selon des règles de contraintes pour former une structure à type de graphe. Un unique formalisme, dérivé des graphes conceptuels, est utilisé pour la représentation des connaissances lexicales, syntaxiques, sémantiques ou référentielles et pour la représentation des règles de contraintes qui sont enregistrées au sein d'un réseau sémiotique. Ce modèle est implanté en un prototype opérationnel dénommé RIBOSOME. Deux champs d'application sont expérimentés : l'analyse de libellés de maladies issus de thesaurus différents en vue de l'organisation d'une ontologie pour le domaine de la transplantation et des défaillances terminales d'organe, et la prise en compte du contexte et de la polysémie pour le traitement automatique du langage médical.
Style APA, Harvard, Vancouver, ISO itp.
25

Ayats, H. Ambre. "Construction de graphes de connaissances à partir de textes avec une intelligence artificielle explicable et centrée-utilisateur·ice". Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS095.

Pełny tekst źródła
Streszczenie:
Avec les progrès récents dans le domaine de l'intelligence artificielle, la question du contrôle humain est devenu centrale. Aujourd'hui, cela passe à la fois par des recherches en explicabilité et des systèmes centrés autour de l'interaction avec l'utilisateur·ice. De plus, avec l'expansion du web sémantique et des méthodes de traitement automatique du langage naturelle, la tâche de construction de graphes de connaissances à partir de textes est devenu un enjeu important. Cette thèse présente un système centré-utilisateur·ice pour la construction de graphes de connaissances à partir de textes. Cette thèse présente plusieurs contributions. Tout d'abord, nous introduisons un workflow centré-utilisateur·ice pour la tâche sus-citée, ayant la propriété d'automatiser progressivement les actions de l'utilisateur·ice tout en lui laissant un contrôle fin du résultat. Ensuite, nous présentons nos apports dans le domaine de l'analyse de concepts formels, utilisés afin de concevoir un module d'apprentissage fainéant et explicable pour la tâche de classification de relations. Enfin, nous présentons nos apports dans le domaine de l'extraction de relations, et comment ces apports s'inscrivent dans le workflow présenté précédemment
With recent advances in artificial intelligence, the question of human control has become central. Today, this involves both research into explainability and designs centered around interaction with the user. What's more, with the expansion of the semantic web and automatic natural language processing methods, the task of constructing knowledge graphs from texts has become an important issue. This thesis presents a user-centered system for the construction of knowledge graphs from texts. This thesis presents several contributions. First, we introduce a user-centered workflow for the aforementioned task, having the property of progressively automating the user's actions while leaving them a fine-grained control over the outcome. Next, we present our contributions in the field of formal concept analysis, used to design an explainable instance-based learning module for relation classification. Finally, we present our contributions in the field of relation extraction, and how these fit into the presented workflow
Style APA, Harvard, Vancouver, ISO itp.
26

Karouach, Saïd. "Visualisations interactives pour la découverte de connaissances, concepts, méthodes et outils". Toulouse 3, 2003. http://www.theses.fr/2003TOU30082.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
27

Doumbouya, Mamadou Bilo. "Système d'argumentation pour la collaboration en télémédecine". Thesis, Toulouse 1, 2016. http://www.theses.fr/2016TOU10030/document.

Pełny tekst źródła
Streszczenie:
La télémédecine consiste en la pratique d’actes médicaux à distance par l’usage des nouvelles technologies de l’information et de la communication. Parmi ces actes médicaux, nous nous sommes intéressés à la téléexpertise qui est une sorte d’activité collaborative consistant aux recueils d’avis d’experts médicaux face à un problème de santé donné. Dans notre travail, nous avons fait le choix de modéliser ces activités collaboratives par le système d’argumentation de Dung basé sur des fondements mathématiques et qui permet d’illustrer les interactions entre les différentes parties prenantes et par la même occasion fournir des outils mathématiques de prises de décisions. Nous avons opté pour une modélisation sémantique avec des graphes conceptuels car l’un de nos objectifs est de garantir une interopérabilité sémantique. Cette modélisation peut inclure souvent des incohérences (mauvaises relations d’attaques dans le système d’argumentation) qui seront vérifiées par l’usage des contraintes en graphes conceptuels. Pour résoudre ces problèmes d’incohérences deux solutions majeures ont été proposées : (i) la pondération des arguments des différents professionnels de santé, (ii) la modélisation de quelques aspects de droit médical comme contraintes. Ce travail démontre une application informatique du raisonnement logique dans un cadre médical judiciaire où il apporte des éclairages sur la vérification d’information, l’argumentation et l’interaction. Il vise ainsi à garantir une bonne collaboration dans le but de se prémunir d’éventuelles conséquences financières et juridiques
Telemedicine involves the practice of medical procedures remotely through the use of new information and communications technology. Among these medical procedures, we looked at the tele-expertise which is a kind of collaborative activity consisting of collecting the opinions of medical experts facing a particular health problem. In our work, we have chosen to model these collaborative activities by Dung argumentation system based on mathematical foundations and illustrates the interactions between the different stakeholders and at the same time provides mathematical tools decisions. We opted for a semantic modeling with conceptual graphs as one of our objectives is to ensure semantic interoperability. This modeling can often include inconsistencies (poor relations of attacks in argumentation system) which will be verified by the use of constraints in conceptual graphs. To solve these inconsistency problems, two major solutions have been proposed : (i) the weight of the arguments of different health professionals, (ii) modeling some aspects of medical law as constraints. This work demonstrates a computer application of logical reasoning in a judicial medical setting where it sheds light on the verification of information, argumentation and interaction. It aims to ensure good cooperation in order to guard against possible financial and legal consequences
Style APA, Harvard, Vancouver, ISO itp.
28

Martin, Philippe. "Exploitation de graphes conceptuels et de documents structurés et hypertextes pour l'acquisition de connaissances et la recherche d'informations". Nice, 1996. http://www.theses.fr/1996NICE4992.

Pełny tekst źródła
Streszczenie:
Des taches courantes lors de la realisation d'un systeme a base de connaissances, sont la recherche et la representation d'informations contenues dans des documents (e. G. Des retranscriptions d'interviews d'experts), la creation et la manipulation de documents (e. G. Documentation technique), la recherche et la manipulation de connaissances dans une base de connaissances (e. G. Pour les valider). Afin de faciliter l'execution de telles taches par un cogniticien, nous avons cree un outil logiciel permettant l'utilisation combinee a) des techniques avancees de structuration et de gestion de documents offertes par l'editeur de documents structures et hypertextes thot, et b) de techniques avancees de representation et d'organisation de connaissances permises par le formalisme des graphes conceptuels. Des representations de connaissances peuvent ainsi a) etre stockees, recherchees et gerees dans des documents via l'editeur thot, et b) etre exploitees pour permettre la recherche des informations qu'elles indexent dans des documents. De telles recherches peuvent s'effectuer par navigation ou par requete et permettre la generation de documents qui sont des vues sur des parties de documents ou de la base selectionnees sur des criteres conceptuels. De plus, afin de guider et faciliter le travail du cogniticien dans la representation et la recherche de connaissances et d'informations, nous avons constitue une ontologie comprenant a) des types de relations elementaires usuelles (relations rhetoriques, mereologiques, spatiales, temporelles, mathematiques, etc. ), et b) des types de concepts generaux que nous avons specialises par les 90. 000 types de concepts de la base generale de connaissances terminologique wordnet. Nous montrons comment l'exploitation de cette ontologie par des cogniticiens permet d'ameliorer la coherence, l'extensibilite et la reutilisabilite de leurs representations de connaissances
Style APA, Harvard, Vancouver, ISO itp.
29

Tognetti, Yannick. "Contribution à la modélisation des systèmes d'information chimique par la théorie et l'algorithmique de graphes". Montpellier 2, 2002. http://www.theses.fr/2002MON20182.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
30

Buron, Maxime. "Raisonnement efficace sur des grands graphes hétérogènes". Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX061.

Pełny tekst źródła
Streszczenie:
Le Web sémantique propose des représentations de connaissances, qui permettent d'intégrer facilement des données hétérogènes issues de plusieurs sources en une base de connaissances unifiée. Dans cette thèse, nous étudions des techniques d'interrogation de telles bases de connaissances.La première partie est dédiée à des techniques de réponse à des requêtes sur une base de connaissances représentée par un graphe RDF sous des contraintes ontologiques. Les connaissances implicites produites par le raisonnement, à partir des règles de déduction RDFS, doivent être prises en compte pour répondre correctement à de telles requêtes.Pour commencer, nous présentons un algorithme de reformulation de requêtes dites Basic Graph Pattern (BGP), qui exploite une partition des règles de déduction en des règles sur les assertions et sur les contraintes. Puis nous introduisons une nouvelle disposition du stockage des graphes RDF, qui combine deux dispositions connues. Pour ces deux contributions, des expérimentations permettent de valider nos résultats théoriques et algorithmiques.Dans la deuxième partie, nous considérons le problème d'interrogation, par des requêtes BGP, de sources de données hétérogènes intégrées en un graphe RDF. Nous introduisons un cadre d'intégration de données sous des contraintes ontologiques RDFS, utilisant une spécification d'intégration basée sur des mappings Global-Local-As-View, rarement considérée jusqu'ici dans la littérature. Nous présentons plusieurs stratégies de réponse à des requêtes, qui, soit matérialisent les données en un graphe RDF, soit laissent ce graphe virtuel. Ces stratégies diffèrent sur quand et comment le raisonnement RDFS est supporté. Nous avons implémenté ces stratégies dans une plate-forme et mené des expérimentations qui démontrent l'intérêt particulier d'une des stratégies basée sur la saturation des mappings. Finalement, nous montrons que cette dernière technique peut être étendue au delà des règles de déduction RDFS au raisonnement défini par un sous-ensemble des règles existentielles
The Semantic Web offers knowledge representations, which allow to integrate heterogeneous data from several sources into a unified knowledge base. In this thesis, we investigate techniques for querying such knowledge bases.The first part is devoted to query answering techniques on a knowledge base, represented by an RDF graph subject to ontological constraints. Implicit information entailed by the reasoning, enabled by the set of RDFS entailment rules, has to be taken into account to correctly answer such queries. First, we present a sound and complete query reformulation algorithm for Basic Graph Pattern queries, which exploits a partition of RDFS entailment rules into assertion and constraint rules. Second, we introduce a novel RDF storage layout, which combines two well-known layouts. For both contributions, our experiments assess our theoretical and algorithmic results.The second part considers the issue of querying heterogeneous data sources integrated into an RDF graph, using BGP queries. Following the Ontology-Based Data Access paradigm, we introduce a framework of data integration under an RDFS ontology, using the Global-Local-As-View mappings, rarely considered in the literature.We present several query answering strategies, which may materialize the integrated RDF graph or leave it virtual, and differ on how and when RDFS reasoning is handled. We implement these strategies in a platform, in order to conduct experiments, which demonstrate the particular interest of one of the strategies based on mapping saturation. Finally, we show that mapping saturation can be extended to reasoning defined by a subset of existential rules
Style APA, Harvard, Vancouver, ISO itp.
31

Pennerath, Frédéric. "Méthodes d'extraction de connaissances à partir de données modélisables par des graphes : Application à des problèmes de synthèse organique". Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00436568.

Pełny tekst źródła
Streszczenie:
Des millions de réactions chimiques sont décrites dans des bases de données sous la forme de transformations de graphes moléculaires. Cette thèse propose différentes méthodes de fouille de donnés pour extraire des motifs pertinents contenus dans ces graphes et ainsi aider les chimistes à améliorer leurs connaissances des réactions chimiques et des molécules. Ainsi on commence par montrer comment le problème central de la recherche des schémas de réactions fréquents peut se résoudre à l'aide de méthodes existantes de recherche de sous-graphes fréquents. L'introduction du modèle général des motifs les plus informatifs permet ensuite de restreindre l'analyse de ces motifs fréquents à un nombre réduit de motifs peu redondants et représentatifs des données. Si l'application du modèle aux bases de réactions permet d'identifier de grandes familles de réactions, le modèle est inadapté pour extraire les schémas caractéristiques de méthodes de synthèse (schémas CMS) dont la fréquence est trop faible. Afin de surmonter cet obstacle, est ensuite introduite une méthode de recherche heuristique fondée sur une contrainte d'intervalle entre graphes et adaptée à l'extraction de motifs de très faible fréquence. Cette méthode permet ainsi de déterminer à partir d'exemples de réactions et sous certaines conditions le schéma CMS sous-jacent à une réaction donnée. La même approche est ensuite utilisée pour traiter le problème de la classification supervisée de sommets ou d'arêtes fondée sur leurs environnements puis exploitée pour évaluer la formabilité des liaisons d'une molécule. Les résultats produits ont pu être analysés par des experts de la synthèse organique et sont très encourageants.
Style APA, Harvard, Vancouver, ISO itp.
32

Pennerath, Frédéric Napoli Amedeo. "Méthodes d'extraction de connaissances à partir de données modélisables par des graphes Application à des problèmes de synthèse organique /". S. l. : S. n, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0061_PENNERATH.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
33

Loudcher, Rabaseda Sabine. "Contributions à l'extraction automatique de connaissances : application à l'analyse clinique de la marche". Lyon 1, 1996. http://www.theses.fr/1996LYO10309.

Pełny tekst źródła
Streszczenie:
Dans cette these, notre objectif methodologique consiste a contribuer a la mise en place de nouvelles techniques d'extraction de connaissances a partir de donnees (ecd). Parmi les methodes d'ecd, nous nous interessons plus particulierement a celles basees sur les graphes d'induction. Notre contribution methodologique est double. D'une part, nous souhaitons proposer une methode d'ecd capable de manipuler simultanement des donnees numeriques et symboliques. Notre contribution porte sur une meilleure prise en compte des donnees numeriques dans les graphes d'induction avec la constitution d'un nouvel algorithme de discretisation, baptise fusinter. Les resultats obtenus par fusinter sont compares a ceux obtenus par d'autres techniques. Nous discutons egalement de l'evaluation, avant toute discretisation, de la separabilite des exemples selon les classes, par le test non parametrique des sequences de a. Mood. D'autre part, pour alimenter la base de connaissances d'un systeme expert ou pour ameliorer la comprehension d'un probleme, nous souhaitons generer, a partir d'une methode d'ecd, des connaissances exprimees sous forme de regles claires et concises. Suite aux problemes engendres par cette generation, nous nous posons le probleme de la simplification d'une base de regles. En reponse aux limites des differentes approches de simplification, nous introduisons notre propre algorithme qui permet d'eliminer les informations redondantes et incoherentes pour obtenir une base optimale avec des regles en faible nombre et concises. Dans le cadre d'un projet medical, des medecins nous ont soumis un probleme concernant la caracterisation de la marche dans le but de la constitution d'un systeme d'identification automatique du type de marche. Notre objectif dans le cadre de cette application est de mettre en evidence les parametres de certaines boiteries. Nous posons comme hypothese que le deplacement du centre du bassin constitue un resume de la marche et est sensible a ses perturbations. Nous decrivons la trajectoire du centre du bassin par des parametres spatiaux et temporels. Parmi ces parametres descriptifs, nous souhaitons trouver ceux caracteristiques des differents types de marche. Ce projet comporte un probleme d'ecd avec la determination des regles de diagnostic des differents types de marche. Par consequent, nous utilisons comme methodes d'ecd, des methodes d'origine statistique, neuronale, genetique, symbolique ou a base de graphe d'induction. Une comparaison des resultats de ces methodes montre que les graphes d'induction, et notamment la methode sipina generalisee a l'aide de nos developpements theoriques, presentent un compromis satisfaisant entre les exigences d'explicabilite et d'efficacite. La methode sipina nous permet de mettre en evidence les parametres caracteristiques des differentes demarches. Des resultats interessants nous encouragent a valider les regles de diagnostic obtenues, avant de pouvoir mettre en place le systeme d'identification automatique.
Style APA, Harvard, Vancouver, ISO itp.
34

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne". Phd thesis, Rennes, INSA, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/quiniou.pdf.

Pełny tekst źródła
Streszczenie:
L’objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases
The aim of this thesis is to build a sentence regognition system based on an existing word regognition system. Two research axes are considered: the sentence segmentation int words as well as the integration of linguistic knowledge to take into account the context of the sentences. We studied several types of statistic language models by comparing their respective impact on the recognition system performances. We also tried to find the best strategy to introduce them efficiently into the whole recognition system. One of the originality of this study is the integration of a representation of the different sentence hypotheses in the form of a confusion network; which is then used to detect and correct the remaining regognition errors. Using the aforementioned techniques allowed us to considerably reduce the number of recognition errors among the words of the sentences
Style APA, Harvard, Vancouver, ISO itp.
35

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00387017.

Pełny tekst źródła
Streszczenie:
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
Style APA, Harvard, Vancouver, ISO itp.
36

Li, Jinpeng. "Extraction de connaissances symboliques et relationnelles appliquée aux tracés manuscrits structurés en-ligne". Phd thesis, Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00785984.

Pełny tekst źródła
Streszczenie:
Notre travail porte sur l'extraction de connaissances sur des langages graphiques dont les symboles sont a priori inconnus. Nous formons l'hypothèse que l'observation d'une grande quantité de documents doit permettre de découvrir les symboles composant l'alphabet du langage considéré. La difficulté du problème réside dans la nature bidimensionnelle et manuscrite des langages graphiques étudiés. Nous nous plaçons dans le cadre de tracés en-ligne produit par des interfaces de saisie de type écrans tactiles, tableaux interactifs ou stylos électroniques. Le signal disponible est alors une trajectoire échantillonnée produisant une séquence de traits, eux-mêmes composés d'une séquence de points. Un symbole, élément de base de l'alphabet du langage, est donc composé d'un ensemble de traits possédant des propriétés structurelles et relationnelles spécifiques. L'extraction des symboles est réalisée par la découverte de sous-graphes répétitifs dans un graphe global modélisant les traits (noeuds) et leur relations spatiales (arcs) de l'ensemble des documents. Le principe de description de longueur minimum (MDL : Minimum Description Length) est mis en oeuvre pour choisir les meilleurs représentants du lexique des symboles. Ces travaux ont été validés sur deux bases expérimentales. La première est une base d'expressions mathématiques simples, la seconde représente des graphiques de type organigramme. Sur ces bases, nous pouvons évaluer la qualité des symboles extraits et comparer à la vérité terrain. Enfin, nous nous sommes intéressés à la réduction de la tâche d'annotation d'une base en considérant à la fois les problématiques de segmentation et d'étiquetage des différents traits.
Style APA, Harvard, Vancouver, ISO itp.
37

Talon, Bénédicte. "Un système d'aide à l'acquisition de concepts nouveaux pour un outil d'analyse du langage naturel". Compiègne, 1991. http://www.theses.fr/1991COMPD378.

Pełny tekst źródła
Streszczenie:
Le but de notre travail se situe dans un élan ergonomique. Il s'agit de permettre, lors de la rencontre d'un mot nouveau dans un processus de dialogue, son intégration dans un lexique. Cette intégration doit se faire sans contrainte pour l'utilisateur et cependant recouvrir le maximum d'informations utiles. L'entreprise décrite ici s'intègre dans un travail plus vaste qu'est le projet DOCAL que nous avons développé en amont de cette réalisation. DOCAL comporte un système de compréhension automatique de la langue en cours de développement depuis un peu plus de deux ans à l'Université de Technologie de Compiègne au sein de l'équipe LCS. Le premier chapitre présente la problématique générale du langage naturel. Nous y observons une brève page d'histoire, les diverses méthodes qu'elle a fait apparaitre et les différentes sources de connaissances nécessaires qui sont ressorties de ces recherches. La connaissance nécessaire à la compréhension dans DOCAL fait l'objet du deuxième chapitre. Nous y décrivons l'information pour chaque niveau d'utilisation : morphologique, syntaxique, sémantique et pragmatique de la manière dont nous intégrons ces différents niveaux. Le troisième chapitre nous permet d'aborder la présentation du projet DOCAL. Nous insisterons plus particulièrement sur l'aspect sémantique du système sur lequel nous avons le plus travaillé. Le dernier chapitre présente une méthode d'acquisition des connaissances par introduction de définitions. L'objet d'un tel système est de transformer une définition, type définition du dictionnaire, en une structure sémantique exploitable par le système de DOCAL. Enfin, les limites et performances du programme seront examinées en conclusion ainsi que les directions à prendre pour améliorer le travail produit.
Style APA, Harvard, Vancouver, ISO itp.
38

Caillaut, Gaëtan. "Apprentissage d'espaces prétopologiques pour l'extraction de connaissances structurées". Electronic Thesis or Diss., Orléans, 2019. http://www.theses.fr/2019ORLE3208.

Pełny tekst źródła
Streszczenie:
La prétopologie est une théorie mathématique visant à relaxer les axiomes régissant la théorie, bien connue, de la topologie. L'affaiblissement de cette axiomatique passe principalement par la redéfinition de l'opérateur d'adhérence qui, en topologie, est idempotent. La non-idempotence de l'opérateur d'adhérence prétopologique offre un cadre de travail plus pertinent pour la modélisation de phénomènes variés, par exemple des processus itératifs évoluant au cours du temps. La prétopologie est le fruit de la généralisation de plusieurs concepts, parmi lesquels la topologie mais aussi la théorie des graphes. Cette thèse comprend quatre parties majeures. La première partie consiste en une introduction du cadre théorique de la prétopologie puis à une mise en lumière de plusieurs applications de la prétopologie dans des domaines tels que l'apprentissage automatique, l'analyse d'images ou encore l'étude des systèmes complexes. La seconde partie permettra de poser et de définir la modélisation logique et multi-critères d'un espace prétopologique sur laquelle est basée cette thèse. Cette modélisation permet de définir des algorithmes d'apprentissage automatique de règles logiques afin de construire des espaces prétopologiques. Cette partie se focalisera sur l'apprentissage d'espaces prétopologiques non-restreints. L'étude des espaces prétopologiques non-restreints peut s'avérer incommode, notamment lorsque la population étudiée exhibe certaines propriétés structurelles pouvant être décrites dans un espace plus restreint et plus simple à appréhender. C'est pourquoi la troisième partie est dédiée à l'apprentissage d'espaces prétopologiques de type V. Ces espaces sont définis par une famille de préfiltres, ce qui impose une structure particulière. La méthode d'apprentissage, LPSMI, présentée dans cette partie, qui constitue la contribution majeure de cette thèse, tient compte de cette structure si particulière en exploitant le concept d'apprentissage multi-instances. Enfin la dernière partie décrit plusieurs cas d'applications du cadre théorique proposé dans cette thèse. Ainsi, des applications à l'extraction de taxonomies lexicales, à la détection de communautés ainsi qu'à l'ordonnancement d'évènements temporels sont présentées et permettent de montrer l'intérêt, la souplesse et la pertinence de la prétopologie et de l'apprentissage d'espaces prétopologiques dans des domaines variés
Pretopology is a mathematical theory whose goal is to relax the set of axioms governing the well known topology theory. Weakening the set of axioms mainly consists in redefining the pseudo-closure operator which is idempotent in topology. The non-idempotence of the pretopological pseudo-closure operator offers an appropriate framework for the modeling of various phenomena, such as iterative processes evolving throughout time. Pretopology is the outcome of the generalisation of several concepts, amongst topology but also graph theory. This thesis is divided in four main parts. The first one is an introduction to the theoretical framework of the pretopology, as well as an overview of several applications in domains where the pretopology theory shines, such as machine learning, image processing or complex systems analysis.The second part will settle the logical modeling of pretopological spaces which allows to define pretopological spaces by a logical and multi-criteria combination. This modeling enables learning algorithms to define pretopological spaces by learning a logical formula. This part will also present an unrestricted pretopological spaces learning algorithm. Unrestricted pretopological spaces can be quite hard to manipulate, especially when the studied population has some structural properties that can be described in a more restricted space. This is why the third part is dedicated to the automatic learning of pretopological spaces of type V. These spaces are defined by a set of prefilters which impose a particular structure. The LPSMI algorithm, which is the main contribution of this work, is presented in this part. This algorithm relies on the multi-instance learning principles to accurately capture the structural properties of pretopological spaces of type V. Finally, the last part consists of multiple applications of the theoretical framework presented in this thesis. Applications to lexical taxonomies extraction, community detection and extraction of temporal relations, as part of a NLP process, will be presented in order to show the usefulness, the relevance and the flexibility of pretopological spaces learning
Style APA, Harvard, Vancouver, ISO itp.
39

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne". Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00580623.

Pełny tekst źródła
Streszczenie:
L'objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases.
Style APA, Harvard, Vancouver, ISO itp.
40

Kherroubi, Souad. "Un cadre formel pour l'intégration de connaissances du domaine dans la conception des systèmes : application au formalisme Event-B". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0230/document.

Pełny tekst źródła
Streszczenie:
Cette thèse vise à définir des techniques pour mieux exploiter les connaissances du domaine dans l’objectif de rendre compte de la réalité de systèmes qualifiés de complexes et critiques. La modélisation est une étape indispensable pour effectuer des vérifications et exprimer des propriétés qu’un système doit satisfaire. La modélisation est une représentation simplificatrice, mais réductionniste de la réalité d’un système. Or, un système complexe ne peut se réduire à un modèle. Un modèle doit s’intégrer dans sa théorie observationnelle pour rendre compte des anomalies qu’il peut y contenir. Notre étude montre clairement que le contexte est la première problématique à traiter car principale source de conflits dans le processus de conception d’un système. L’approche retenue dans cette thèse est celle d’intégrer des connaissances du domaine en associant le système à concevoir à des formalismes déclaratifs qualifiés de descriptifs appelés ontologies. Notre attention est portée au formalisme Event-B dont l’approche correct-par-construction appelée raffinement est le principal mécanisme dans ce formalisme qui permet de faire des preuves sur des représentations abstraites de systèmes pour exprimer/vérifier des propriétés de sûreté et d’invariance. Le premier problème traité concerne la représentation et la modélisation des connaissances du contexte en V&V de modèles. Suite à l’étude des sources de conflits, nous avons établi de nouvelles règles pour une extraction de connaissances liées au contexte par raffinement pour la V&V. Une étude des formalismes de représentation et d’interprétation logiques du contexte a permis de définir un nouveau mécanisme pour mieux structurer les modèles Event-B. Une deuxième étude concerne l’apport des connaissances du domaine pour la V&V. Nous définissons une logique pour le formalisme Event-B avec contraintes du domaine fondées sur les logiques de description, établissons des règles à exploiter pour l’intégration de ces connaissances à des fins de V&V. L’évaluation des propositions faites portent sur des études de cas très complexes telles que les systèmes de vote dont des patrons de conception sont aussi développés dans cette thèse. Nous soulevons des problématiques fondamentales sur la complémentarité que peut avoir l’intégration par raffinement des connaissances du domaine à des modèles en exploitant les raisonnements ontologiques, proposons de définir de nouvelles structures pour une extraction partiellement automatisée
This thesis aims at defining techniques to better exploit the knowledge provided from the domain in order to account for the reality of systems described as complex and critical. Modeling is an essential step in performing verifications and expressing properties that a system must satisfy according to the needs and requirements established in the specifications. Modeling is a representation that simplifies the reality of a system. However, a complex system can not be reduced to a model. A model that represents a system must always fit into its observational theory to account for any anomalies that it may contain. Our study clearly shows that the context is the first issue to deal with as the main source of conflict in the design process of a system. The approach adopted in this thesis is that of integrating knowledge of the domain by associating the system to design with declarative formalisms qualified of descriptive ones that we call ontologies. We pay a particular attention to the Event-B formalism, whose correct-by-construction approach called refinement is the main mechanism at the heart of this formalism, which makes it possible to make proofs on abstract representations of systems for expressing and verifying properties of safety and invariance. The first problem treated is the representation and modeling of contextual knowledge in V&V of models. Following to the study looked at the different sources of conflict, we established new definitions and rules for a refinement context knowledge extraction for Event-B V&V. A study of logical formalisms that represent and interpret the context allowed us to define a new mechanism for better structuring Event-B models. A second study concerns the contribution that domain knowledge can make to the V&V of models. We define a logic for the Event-B formalism with domain constraints based on the description logic, and we define rules to integrate domain knowledge for model V&V. The evaluation of the proposals made deal with very complex case studies such as voting systems whose design patterns are also developed in this thesis. We raise fundamental issues about the complementarity that the integration of domain knowledge can bring to Event-B models by refinement using ontological reasoning, and we propose to define a new structures for a partially automated extraction on both levels, namely the V&V
Style APA, Harvard, Vancouver, ISO itp.
41

Oshurko, Ievgeniia. "Knowledge representation and curation in hierarchies of graphs". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN024.

Pełny tekst źródła
Streszczenie:
L'extraction automatique des intuitions et la construction de modèles computationnels à partir de connaissances sur des systèmes complexes repose largement sur le choix d'une représentation appropriée. Ce travail s'efforce de construire un cadre adapté pour la représentation de connaissances fragmentées sur des systèmes complexes et sa curation semi-automatisé.Un système de représentation des connaissances basé sur des hiérarchies de graphes liés à l'aide d'homomorphismes est proposé. Les graphes individuels représentent des fragments de connaissances distincts et les homomorphismes permettent de relier ces fragments. Nous nous concentrons sur la conception de mécanismes mathématiques,basés sur des approches algébriques de la réécriture de graphes, pour la transformation de graphes individuels dans des hiérarchies qui maintient des relations cohérentes entre eux.De tels mécanismes fournissent une piste d'audit transparente, ainsi qu'une infrastructure pour maintenir plusieurs versions des connaissances.La théorie développée est appliquée à la conception des schémas pour les bases de données orientée graphe qui fournissent des capacités de co-évolution schémas-données.Ensuite, cette théorie est utilisée dans la construction du cadre KAMI, qui permet la curation des connaissances sur la signalisation dans les cellules. KAMI propose des mécanismes pour une agrégation semi-automatisée de faits individuels sur les interactions protéine-protéine en corpus de connaissances, la réutilisation de ces connaissances pour l'instanciation de modèles de signalisation dans différents contextes cellulaires et la génération de modèles exécutables basés sur des règles
The task of automatically extracting insights or building computational models fromknowledge on complex systems greatly relies on the choice of appropriate representation.This work makes an effort towards building a framework suitable for representation offragmented knowledge on complex systems and its semi-automated curation---continuouscollation, integration, annotation and revision.We propose a knowledge representation system based on hierarchies of graphs relatedwith graph homomorphisms. Individual graphs situated in such hierarchies representdistinct fragments of knowledge and the homomorphisms allow relating these fragments.Their graphical structure can be used efficiently to express entities and their relations. Wefocus on the design of mathematical mechanisms, based on algebraic approaches to graphrewriting, for transformation of individual graphs in hierarchies that maintain consistentrelations between them. Such mechanisms provide a transparent audit trail, as well as aninfrastructure for maintaining multiple versions of knowledge.We describe how the developed theory can be used for building schema-aware graphdatabases that provide schema-data co-evolution capabilities. The proposed knowledgerepresentation framework is used to build the KAMI (Knowledge Aggregation and ModelInstantiation) framework for curation of cellular signalling knowledge. The frameworkallows for semi-automated aggregation of individual facts on protein-protein interactionsinto knowledge corpora, reuse of this knowledge for instantiation of signalling models indifferent cellular contexts and generation of executable rule-based models
Style APA, Harvard, Vancouver, ISO itp.
42

Chikhi, Nacim Fateh. "Calcul de centralité et identification de structures de communautés dans les graphes de documents". Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00619177.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons à la caractérisation de grandes collections de documents (en utilisant les liens entre ces derniers) afin de faciliter leur utilisation et leur exploitation par des humains ou par des outils informatiques. Dans un premier temps, nous avons abordé la problématique du calcul de centralité dans les graphes de documents. Nous avons décrit les principaux algorithmes de calcul de centralité existants en mettant l'accent sur le problème TKC (Tightly Knit Community) dont souffre la plupart des mesures de centralité récentes. Ensuite, nous avons proposé trois nouveaux algorithmes de calcul de centralité (MHITS, NHITS et DocRank) permettant d'affronter le phénomène TKC. Les différents algorithmes proposés ont été évalués et comparés aux approches existantes. Des critères d'évaluation ont notamment été proposés pour mesurer l'effet TKC. Dans un deuxième temps, nous nous sommes intéressés au problème de la classification non supervisée de documents. Plus précisément, nous avons envisagé ce regroupement comme une tâche d'identification de structures de communautés (ISC) dans les graphes de documents. Nous avons décrit les principales approches d'ISC existantes en distinguant les approches basées sur un modèle génératif des approches algorithmiques ou classiques. Puis, nous avons proposé un modèle génératif (SPCE) basé sur le lissage et sur une initialisation appropriée pour l'ISC dans des graphes de faible densité. Le modèle SPCE a été évalué et validé en le comparant à d'autres approches d'ISC. Enfin, nous avons montré que le modèle SPCE pouvait être étendu pour prendre en compte simultanément les liens et les contenus des documents.
Style APA, Harvard, Vancouver, ISO itp.
43

Belhadj, Ihssen. "Ingénierie des connaissances pour l’épidémiologie et l’aide à la décision en santé publique : Analyse des besoins potentiels et expérimentations dans le contexte du registre français des maladies rénales". Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132068.

Pełny tekst źródła
Streszczenie:
Construire des terminologies de maladies est un enjeu majeur dans le développement des systèmes d’information épidémiologiques et d’aide à la décision de santé publique qui soient efficients et durables. A partir du contexte du registre français de l'Insuffisance Rénale Terminale, une analyse des besoins de représentation des termes de maladies a été réalisée mettant en évidence le problème aigu et occulté de continuité statistique dans les bases de données et de connaissances. La « continuité terminologique » est proposée comme une réponse au besoin de continuité statistique. Une méthode générative de construction de Ressources Termino-Ontologiques a été conçue et expérimentée. Plutôt que de s’intéresser à l’ensemble des termes qui sont nécessaires pour décrire un domaine, nous nous sommes concentré uniquement sur la modélisation d'un sous ensemble de connaissances élémentaires sur les maladies. Cette méthode générative produit simultanément des termes normalisés (Nomenclature artificielle) et leur représentation sémantique/conceptuelle formelle se basant sur le formalisme des Graphes Conceptuels (GC). Les opérations de généralisation/spécialisation des GC sont utilisées pour déduire l’organisation poly-hiérarchique La continuité terminologique doit être considéré comme étant un critère majeur dans la construction de terminologies de maladies au même titre que la couverture terminologique. Les approches génératives contribuent à améliorer la continuité terminologique, car elles imposent cette contrainte de créer chaque nouveau terme sur des bases formelles avec des propriétés définitoires nécessairement sémantiquement définis dans une ontologie existante
Expressing terms referring to pathological conceptualization is an important issue toward the development of clinical research and public health decision support systems. From the context of the French Registry of End Stage Renal Disease, requirements for disease terms representation are anlysed highlighting the acute and hidden problem of statistical continuity in disease data and knowledge representation. The underpinned assumption relies on the idea of ensuring terminological continuity through agenerative method of building Ontology Based Terminological systems. Rather than looking at all the terms that are necessary to describe a domain, we focused solely on the modeling of basic and definitional knowledge about disease. A set ontological rules for diseases hierachies were defined. Eperiments have been designed and implemented taking advantage of GC formalism and a logic programming toll called prolog-GC. The results confimed that such method allow performing two major activities that are carried out in the conventional building process of medical terminologies : refinement of disease terms granularity and consistency improvement. Terminological continuity needs to be considered as major criteria in disease terminological building. Generative approaches helps to improve the terminological continuity as imposes to create news terms of the bases of existing ones formal definitions
Style APA, Harvard, Vancouver, ISO itp.
44

Thierry, Eric. "Sur quelques interactions entre structures de données et algorithmes efficaces". Montpellier 2, 2001. http://www.theses.fr/2001MON20079.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
45

Bugeaud, Florie. "ISamsara : pour une ingénierie des systèmes de services à base de méréologie et d'hypergraphes". Troyes, 2011. http://www.theses.fr/2011TROY0005.

Pełny tekst źródła
Streszczenie:
L’orientation service et ses enjeux sont aujourd’hui bien connus des entreprises. Pourtant, l’analyse de l'activité des concepteurs de services chez un opérateur de télécommunication ainsi que l’état de l'art sur les théories et modèles du service montrent le caractère encore sous-spécifié de cette notion. Bien qu’ancrés en informatique, nos travaux poursuivent les discussions du courant pluridisciplinaire SSME (Service Science Management and Engineering) en redéfinissant tout d’abord le concept de service selon une perspective systémique. Ils adoptent également une théorie de la relation de service en tant que « relation de circulation » et s’inspirent de divers courants philosophiques permettant d’accéder à une conception ontologique de la réalité sous forme de processus emboîtés et interconnectés. On formalise dès lors le service comme un phénomène dynamique émergeant de la coordination d’éléments hétérogènes et pour lequel la théorie des agencements semble utile. Puis, on propose de représenter et simuler ces « agencements servi-ciels » grâce à un hypergraphe et une ontologie méréo-relationnelle révélant une structure mais aussi les scénarios d’expérience calculés. La méthode et la maquette d’un atelier de modélisation et simulation d’agencements serviciels (iSamsara) proposées ici s’inscrivent dans une volonté de construction d’une réelle Ingénierie des Systèmes de Services. Ces travaux sont expérimentés dans un contexte d’ingénierie des connaissances lié au processus d’étude d’opportunités d’un opérateur télécoms
The « service orientation » and its challenges are now well known within companies. How-ever, the analysis of the activities of services designers at a telecommunications operator, as well as the state of the art about the service theories and models show the still ill-specified nature of that term. Our work is anchored in the discipline of computer science, but it pursues the discussion of the SSME multidisciplinary approach (Service Science Management and Engineering). It first redefines the concept of service according to a systemic perspective. It also adopts a theory of the service relationship as a « traffic relationship », and various philosophical inspirations that help us to ontologically conceive reality as nested and interconnected processes. Therefore, we formalize the service as a dynamic phenomenon emerging from the coordination of heterogeneous entities, for which the « agencements theory » seems useful. Then, we propose to represent and simulate these « servicial agencements » with a hypergraph and a mereo-relational ontology revealing the structure but also to the calculated experience’s scenarios. The proposed method and tool’s proof of concept for the modeling and simulation of servicial agencements (iSamsara) are part of the problem of constructing a real Services Systems Engineering. Moreover, this work takes place in a con-text of knowledge engineering related to the process of opportunities study of a telecom operator
Style APA, Harvard, Vancouver, ISO itp.
46

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances". Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20101.

Pełny tekst źródła
Streszczenie:
Le travail de thèse porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui permet une représentation graphique des connaissances. La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (économie ou tourisme) puis ajoutées à la base. Elles sont ensuite fournies au service de validation et d'enrichissement qui les complète de nouvelles connaissances et décide de leur validité
Style APA, Harvard, Vancouver, ISO itp.
47

Baalbaki, Hussein. "Designing Big Data Frameworks for Quality-of-Data Controlling in Large-Scale Knowledge Graphs". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS697.

Pełny tekst źródła
Streszczenie:
Les Knowledge Graphs (KG) sont la représentation la plus utilisée d'informations structurées sur un domaine particulier, composée de milliards de faits sous la forme d'entités (nœuds) et de relations (bords) entre eux. De plus, les informations de type sémantique des entités sont également contenues dans les KG. Le nombre de KG n'a cessé d'augmenter au cours des 20 dernières années dans divers domaines, notamment le gouvernement, la recherche universitaire, les domaines biomédicaux, etc. Les applications basées sur l'apprentissage automatique qui utilisent les KG incluent la liaison d'entités, les systèmes de questions-réponses, les systèmes de recommandation, etc. Les Open KG sont généralement produits de manière heuristique, automatiquement à partir de diverses sources, notamment du texte, des photos et d'autres ressources, ou sont sélectionnés manuellement. Cependant, ces KG sont souvent incomplètes, c'est-à-dire qu'il existe des liens manquants entre les entités et des liens manquants entre les entités et leurs types d'entités correspondants. Dans cette thèse, nous abordons l’un des problèmes les plus difficiles auxquels est confronté le Knowledge Graph Completion (KGC), à savoir la prédiction de liens. Prédiction générale des liens en KG qui inclut la prédiction de la tête et de la queue, triple classification. Ces dernières années, les KGE ont été formés pour représenter les entités et les relations du KG dans un espace vectoriel de faible dimension préservant la structure du graphe. Dans la plupart des travaux publiés tels que les modèles translationnels, les modèles de réseaux neuronaux et autres, la triple information est utilisée pour générer la représentation latente des entités et des relations. Dans cette thèse, plusieurs méthodes ont été proposées pour KGC et leur efficacité est démontrée empiriquement dans cette thèse. Tout d’abord, un nouveau modèle d’intégration KG, TransModE, est proposé pour la prédiction de liens. TransModE projette les informations contextuelles des entités dans un espace modulaire, tout en considérant la relation comme vecteur de transition qui guide l'entité tête vers l'entité queue. Deuxièmement, nous avons travaillé sur la construction d'un modèle KGE simple et de faible complexité, tout en préservant son efficacité. KEMA est un nouveau modèle KGE parmi les modèles KGE les plus bas en termes de complexité, tout en obtenant des résultats prometteurs. Enfin, KEMA++ est proposé comme une mise à niveau de KEMA pour prédire les triplets manquants dans les KG en utilisant l'opération arithmétique des produits dans un espace modulaire. Les expériences approfondies et les études d'ablation montrent l'efficacité du modèle proposé, qui rivalise avec les modèles de pointe actuels et établit de nouvelles références pour KGC
Knowledge Graphs (KGs) are the most used representation of structured information about a particular domain consisting of billions of facts in the form of entities (nodes) and relations (edges) between them. Additionally, the semantic type information of the entities is also contained in the KGs. The number of KGs has steadily increased over the past 20 years in a variety of fields, including government, academic research, the biomedical fields, etc. Applications based on machine learning that use KGs include entity linking, question-answering systems, recommender systems, etc. Open KGs are typically produced heuristically, automatically from a variety of sources, including text, photos, and other resources, or are hand-curated. However, these KGs are often incomplete, i.e., there are missing links between the entities and missing links between the entities and their corresponding entity types. In this thesis, we are addressing one of the most challenging issues facing Knowledge Graph Completion (KGC) which is link prediction. General Link Prediction in KGs that include head and tail prediction, triple classification. In recent years, KGE have been trained to represent the entities and relations in the KG in a low-dimensional vector space preserving the graph structure. In most published works such as the translational models, neural network models and others, the triple information is used to generate the latent representation of the entities and relations. In this dissertation, several methods have been proposed for KGC and their effectiveness is shown empirically in this thesis. Firstly, a novel KG embedding model TransModE is proposed for Link Prediction. TransModE projects the contextual information of the entities to modular space, while considering the relation as transition vector that guide the head to the tail entity. Secondly, we worked on building a simple low complexity KGE model, meanwhile preserving its efficiency. KEMA is a novel KGE model among the lowest KGE models in terms of complexity, meanwhile it obtains promising results. Finally, KEMA++ is proposed as an upgrade of KEMA to predict the missing triples in KGs using product arithmetic operation in modular space. The extensive experiments and ablation studies show efficiency of the proposed model, which compete the current state of the art models and set new baselines for KGC. The proposed models establish new way in solving KGC problem other than transitional, neural network, or tensor factorization based approaches. The promising results and observations open up interesting scopes for future research involving exploiting the proposed models in domain-specific KGs such as scholarly data, biomedical data, etc. Furthermore, the link prediction model can be exploited as a base model for the entity alignment task as it considers the neighborhood information of the entities
Style APA, Harvard, Vancouver, ISO itp.
48

Chikhi, Nacim Fateh. "Calcul de centralité et identification de structures de communautés dans les graphes de documents". Phd thesis, Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1364/.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons à la caractérisation de grandes collections de documents (en utilisant les liens entre ces derniers) afin de faciliter leur utilisation et leur exploitation par des humains ou par des outils informatiques. Dans un premier temps, nous avons abordé la problématique du calcul de centralité dans les graphes de documents. Nous avons décrit les principaux algorithmes de calcul de centralité existants en mettant l'accent sur le problème TKC (Tightly Knit Community) dont souffre la plupart des mesures de centralité récentes. Ensuite, nous avons proposé trois nouveaux algorithmes de calcul de centralité (MHITS, NHITS et DocRank) permettant d'affronter le phénomène TKC. Les différents algorithmes proposés ont été évalués et comparés aux approches existantes. Des critères d'évaluation ont notamment été proposés pour mesurer l'effet TKC. Dans un deuxième temps, nous nous sommes intéressés au problème de la classification non supervisée de documents. Plus précisément, nous avons envisagé ce regroupement comme une tâche d'identification de structures de communautés (ISC) dans les graphes de documents. Nous avons décrit les principales approches d'ISC existantes en distinguant les approches basées sur un modèle génératif des approches algorithmiques ou classiques. Puis, nous avons proposé un modèle génératif (SPCE) basé sur le lissage et sur une initialisation appropriée pour l'ISC dans des graphes de faible densité. Le modèle SPCE a été évalué et validé en le comparant à d'autres approches d'ISC. Enfin, nous avons montré que le modèle SPCE pouvait être étendu pour prendre en compte simultanément les liens et les contenus des documents
In this thesis, we are interested in characterizing large collections of documents (using the links between them) in order to facilitate their use and exploitation by humans or by software tools. Initially, we addressed the problem of centrality computation in document graphs. We described existing centrality algorithms by focusing on the TKC (Tightly Knit Community) problem which affects most existing centrality measures. Then, we proposed three new centrality algorithms (MHITS, NHITS and DocRank) which tackle the TKC effect. The proposed algorithms were evaluated and compared to existing approaches using several graphs and evaluation measures. In a second step, we investigated the problem of document clustering. Specifically, we considered this clustering as a task of community structure identification (CSI) in document graphs. We described the existing CSI approaches by distinguishing those based on a generative model from the algorithmic or traditional ones. Then, we proposed a generative model (SPCE) based on smoothing and on an appropriate initialization for CSI in sparse graphs. The SPCE model was evaluated and validated by comparing it to other CSI approaches. Finally, we showed that the SPCE model can be extended to take into account simultaneously the links and content of documents
Style APA, Harvard, Vancouver, ISO itp.
49

Simonne, Lucas. "Mining differential causal rules in knowledge graphs". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG008.

Pełny tekst źródła
Streszczenie:
La fouille de règles d'association au sein de graphes de connaissances est un domaine de recherche important.En effet, ce type de règle permet de représenter des connaissances, et leur application permet de compléter un graphe en ajoutant des données manquantes ou de supprimer des données erronées.Cependant, ces règles ne permettent pas d'exprimer des relations causales, dont la sémantique diffère d'une simple association ou corrélation. Dans un système, un lien de causalité entre une variable A et une variable B est une relation orientée de A vers B et indique qu'un changement dans A cause un changement dans B, les autres variables du système conservant les mêmes valeurs.Plusieurs cadres d'étude existent pour déterminer des relations causales, dont le modèle d'étude des résultats potentiels, qui consiste à apparier des instances similaires ayant des valeurs différentes sur une variable nommée traitement pour étudier l'effet de ce traitement sur une autre variable nommée résultat.Nous proposons dans cette thèse plusieurs approches permettant de définir des règles représentant l'effet causal d'un traitement sur un résultat.Cet effet peut être local, i.e., valide pour un sous-ensemble d'instances d'un graphe de connaissances défini par un motif de graphe, ou bien moyen, i.e., valide en moyenne pour l'ensemble d'instances de la classe considérée. La découverte de ces règles se base sur le cadre d'étude des résultats potentiels en appariant des instances similaires, en comparant leurs descriptions RDF au sein du graphe ou bien leurs représentations vectorielles apprises à travers des modèles de plongements de graphes
The mining of association rules within knowledge graphs is an important area of research.Indeed, this type of rule makes it possible to represent knowledge, and their application makes it possible to complete a knowledge graph by adding missing triples or to remove erroneous triples.However, these rules express associations and do not allow the expression of causal relations, whose semantics differ from an association or a correlation.In a system, a causal link between variable A and variable B is a relationship oriented from A to B. It indicates that a change in A causes a change in B, with the other variables in the system maintaining the same values.Several frameworks exist for determining causal relationships, including the potential outcome framework, which involves matching similar instances with different values on a variable named treatment to study the effect of that treatment on another variable named the outcome.In this thesis, we propose several approaches to define rules representing a causal effect of a treatment on an outcome.This effect can be local, i.e., valid for a subset of instances of a knowledge graph defined by a graph pattern, or average, i.e., valid on average for the whole set of graph instances.The discovery of these rules is based on the framework of studying potential outcomes by matching similar instances and comparing their RDF descriptions or their learned vectorial representations through graph embedding models
Style APA, Harvard, Vancouver, ISO itp.
50

Giorgino, Mathieu. "Inductive representation, proofs and refinement of pointer structures". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2076/.

Pełny tekst źródła
Streszczenie:
Cette thèse s'intègre dans le domaine général des méthodes formelles qui donnent une sémantique aux programmes pour vérifier formellement des propriétés sur ceux-ci. Sa motivation originale provient d'un besoin de certification des systèmes industriels souvent développés à l'aide de l'Ingénierie Dirigée par les Modèles (IDM) et de langages orientés objets (OO). Pour transformer efficacement des modèles (ou graphes), il est avantageux de les représenter à l'aide de structures de pointeurs, économisant le temps et la mémoire grâce au partage qu'ils permettent. Cependant la vérification de propriétés sur des programmes manipulant des pointeurs est encore complexe. Pour la simplifier, nous proposons de démarrer le développement par une implémentation haut-niveau sous la forme de programmes fonctionnels sur des types de données inductifs facilement vérifiables dans des assistants à la preuve tels que Isabelle/HOL. La représentation des structures de pointeurs est faite à l'aide d'un arbre couvrant contenant des références additionnelles. Ces programmes fonctionnels sont ensuite raffinés si nécessaire vers des programmes impératifs à l'aide de la bibliothèque Imperative_HOL. Ces programmes sont en dernier lieu extraits vers du code Scala (OO). Cette thèse décrit la méthodologie de représentation et de raffinement et fournit des outils pour la manipulation et la preuve de programmes OO dans Isabelle/HOL. L'approche est éprouvée par de nombreux exemples dont notamment l'algorithme de Schorr-Waite et la construction de Diagrammes de Décision Binaires (BDDs)
This thesis stands in the general domain of formal methods that gives semantics to programs to formally prove properties about them. It originally draws its motivation from the need for certification of systems in an industrial context where Model Driven Engineering (MDE) and object-oriented (OO) languages are common. In order to obtain efficient transformations on models (graphs), we can represent them as pointer structures, allowing space and time savings through the sharing of nodes. However verification of properties on programs manipulating pointer structures is still hard. To ease this task, we propose to start the development with a high-level implementation embodied by functional programs manipulating inductive data-structures, that are easily verified in proof assistants such as Isabelle/HOL. Pointer structures are represented by a spanning tree adorned with additional references. These functional programs are then refined - if necessary - to imperative programs thanks to the library Imperative_HOL. These programs are finally extracted to Scala code (OO). This thesis describes this kind of representation and refinement and provides tools to manipulate and prove OO programs in Isabelle/HOL. This approach is put in practice with several examples, and especially with the Schorr-Waite algorithm and the construction of Binary Decision Diagrams (BDDs)
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii