Siga este enlace para ver otros tipos de publicaciones sobre el tema: Graphes sémantiques.

Tesis sobre el tema "Graphes sémantiques"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Graphes sémantiques".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Auillans, Pascal. "Modélisation de réseaux sémantiques par des hypergraphes et applications". Bordeaux 1, 2005. http://www.theses.fr/2005BOR12966.

Texto completo
Resumen
Les évolutions du Web, prévues par le W3C, doivent favoriser le déploiement de services de meilleure qualité. Pour cela, la nouvelle architecture intègre un système de représentation de connaissances appelé Web Sémantique qui constitue la mise en oeuvre d'un modèle théorique reposant sur la logique descriptive. Cette thèse, dont les recherches s'appliquent plus particulièrement au système de représentation de connaissances Topic Maps, a pour objectif de proposer une alternative à l'utilisation de la logique descriptive. Nous montrerons l'intérêt d'une structuration fondée sur la théorie des graphes dans le domaine de la représentation de connaissances. Cette thèse s'est inscrite, à l'origine, dans le cadre du projet européen KePT ayant pour objectif la mise en place, pour l'application ITM de la société Mondeca, d'un environnement de visualisation de connaissances organisées selon la norme ISO 13250 Topic Maps. Les recherches sur le fractionnement de graphes menées dans le cadre du projet KePT ont montré le besoin d'une meilleure compréhension des topic maps et d'outils adaptés à la mise en oeuvre de traitements efficaces. Ces besoins nous ont conduit à proposer un modèle formel fondé sur la théorie des graphes qui permet notamment l'expression de propriétés structurelles non exprimables par la logique du premier ordre. Outre son adaptation à des études théoriques, ce modèle formel permet l'adaptation d'algorithmes efficaces de la théorie des graphes à la mise en place de traitements difficilement envisageables auparavant dans une application industrielle
The goal of the Web evolutions planned by the W3C is to enable the improvement of web services quality. To this end, W3C has added to the Web architecture a knowledge management system named Semantic Web, which implements a theoretical model relying on descriptive logic. This thesis, of which researches are more specifically applied to another knowledge representation system named Topic Maps, aims to rovide an alternative to the use of descriptive logic. We will show how graph theory can be used to structure the knowledge, hence benefit to the field of knowledge representation. This thesis initialy stands within the european project KePT, which aimed to implement a visualization interface for knowledge, structured according to the norm ISO 13250 Topic Maps, in Mondeca's ITM application. Research on graph clustering made for this project raised the need of both a better understanding of the topic maps structure, and tools that enable implementation of efficient processing. Therefore, we propose a formal model relying on graph theory that enables to express structural properties, beyond the expressive power of first order logic. Our model is not only suited for theoretical studies, but also for the adaptation of fast graph theory algorithms to knowledge processing. These processing were previously hardly implementable in industrial applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Hubert, Nicolas. "Mesure et enrichissement sémantiques des modèles à base d'embeddings pour la prédiction de liens dans les graphes de connaissances". Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0059.

Texto completo
Resumen
Les modèles d'embeddings à base de graphes de connaissances ont considérablement gagné en popularité ces dernières années. Ces modèles apprennent une représentation vectorielle des entités et des relations des graphes de connaissances (GCs). Cette thèse explore spécifiquement le progrès de tels modèles pour la tâche de prédiction de lien (PL), qui est d'une importance capitale car elle se retrouve dans plusieurs applications telles que les systèmes de recommandation. Dans cette thèse, divers défis liés à l'utilisation des modèles d'embeddings de GCs pour la PL sont identifiés : la rareté des ressources sémantiquement riches, la nature unidimensionnelle des cadres d'évaluation, et le manque de considérations sémantiques dans les approches d'apprentissage automatique. Cette thèse propose des solutions novatrices à ces défis. Premièrement, elle contribue au développement de ressources sémantiquement riches : les jeux de données principaux pour la prédiction de lien sont enrichis en utilisant des informations basées sur des schémas, EducOnto et EduKG sont proposés pour surmonter la pénurie de ressources dans le domaine éducatif, et PyGraft est introduit comme un outil innovant pour générer des ontologies synthétiques et des graphes de connaissances. Deuxièmement, la thèse propose une nouvelle métrique d'évaluation orientée sémantique, Sem@K, offrant une perspective multidimensionnelle sur la performance des modèles. Il est important de souligner que les modèles populaires sont réévalués en utilisant Sem@K, ce qui révèle des aspects essentiels et jusqu'alors inexplorés de leurs capacités respectives et souligne le besoin de cadres d'évaluation multidimensionnels. Troisièmement, la thèse se penche sur le développement d'approches neuro-symboliques, transcendant les paradigmes traditionnels de l'apprentissage automatique. Ces approches ne démontrent pas seulement une meilleure capacité sémantique dans leurs prédictions, mais étendent également leur utilité à diverses applications telles que les systèmes de recommandation. En résumé, le présent travail ne redéfinit pas seulement l'évaluation et la fonctionnalité des modèles d'embeddings de GCs, mais prépare également le terrain pour des systèmes d'intelligence artificielle plus polyvalents et interprétables, soutenant les explorations futures à l'intersection de l'apprentissage automatique et du raisonnement symbolique
Knowledge graph embedding models (KGEMs) have gained considerable traction in recent years. These models learn a vector representation of knowledge graph entities and relations, a.k.a. knowledge graph embeddings (KGEs). This thesis specifically explores the advancement of KGEMs for the link prediction (LP) task, which is of utmost importance as it underpins several downstream applications such as recommender systems. In this thesis, various challenges around the use of KGEMs for LP are identified: the scarcity of semantically rich resources, the unidimensional nature of evaluation frameworks, and the lack of semantic considerations in prevailing machine learning-based approaches. Central to this thesis is the proposition of novel solutions to these challenges. Firstly, the thesis contributes to the development of semantically rich resources: mainstream datasets for link prediction are enriched using schema-based information, EducOnto and EduKG are proposed to overcome the paucity of resources in the educational domain, and PyGraft is introduced as an innovative open-source tool for generating synthetic ontologies and knowledge graphs. Secondly, the thesis proposes a new semantic-oriented evaluation metric, Sem@K, offering a multi-dimensional perspective on model performance. Importantly, popular models are reassessed using Sem@K, which reveals essential insights into their respective capabilities and highlights the need for multi-faceted evaluation frameworks. Thirdly, the thesis delves into the development of neuro-symbolic approaches, transcending traditional machine learning paradigms. These approaches do not only demonstrate improved semantic awareness but also extend their utility to diverse applications such as recommender systems. In summary, the present work not only redefines the evaluation and functionality of knowledge graph embedding models but also sets the stage for more versatile, interpretable AI systems, underpinning future explorations at the intersection of machine learning and symbolic reasoning
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Puget, Dominique. "Aspects sémantiques dans les Systèmes de Recherche d'Informations". Toulouse 3, 1993. http://www.theses.fr/1993TOU30139.

Texto completo
Resumen
Les travaux de recherche exposes dans ce memoire relevent du domaine de l'informatique documentaire, et se situent plus particulierement parmi les travaux sur les systemes intelligents en recherche d'informations. Notre etude s'inscrit dans le prolongement du projet infodiab, qui est un systeme de recherche d'informations utilisant le langage courant comme source d'informations et comme moyen d'interrogation. Ce systeme est destine a faciliter la prise en charge d'une maladie grave et contraignante: le diabete. Notre premiere contribution a permis le couplage de infodiab avec le systeme dialog (une messagerie et un forum) que nous avons developpe dans le but de favoriser le dialogue entre les patients diabetiques et leur medecin generaliste, mais egalement afin de pouvoir mettre a jour le fonds documentaire du systeme de recherche d'informations, et ceci principalement en fonction des besoins en informations des utilisateurs. Notre deuxieme contribution a pour but la realisation d'un systeme de recherche d'informations base sur un modele de representation qui s'inspire de la theorie des graphes conceptuels en reprenant les grands principes. La structure utilisee pour representer la connaissance est un graphe oriente assimilable a un graphe conceptuel que nous avons appele graphe syntaxique. L'interet de notre approche est de gerer la syntaxe et la semantique utiles et representatives dans le domaine de l'application pour la representation des documents et l'evaluation des requetes, et ceci afin d'obtenir un modele de representation suffisamment simple pour permettre une manipulation efficace. Par rapport aux systemes de recherche classiques, notre systeme offre tout d'abord une meilleure comprehension des documents et des requetes. Ceci se traduit par une reconnaissance des relations syntaxiques et semantiques entre les termes d'un document ou d'une requete. De plus, notre systeme permet une comparaison intelligente entre un document et une requete, ce qui signifie en fait l'utilisation des connaissances syntaxiques et semantiques entre les differents termes durant l'evaluation d'une requete. Ainsi, cela contribue a ameliorer le taux de rappel et le taux de precision du systeme
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Tailhardat, Lionel. "Anomaly detection using knowledge graphs and synergistic reasoning : application to network management and cyber security". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS293.

Texto completo
Resumen
La gestion des incidents sur les réseaux informatiques et télécoms, qu'il s'agisse de problèmes d'infrastructure ou de cybersécurité, nécessite la capacité de traiter et d'interpréter simultanément et rapidement un grand nombre de sources d'information techniques hétérogènes en matière de format et de sémantique. Dans cette thèse, nous étudions l'intérêt de structurer ces données dans un graphe de connaissances, et étudions en quoi cette structure permet de maîtriser la complexité des réseaux, notamment pour des applications en détection d'anomalies sur des réseaux dynamiques et de grande taille. À travers une ontologie (un modèle des concepts et relations pour décrire un domaine d'application), les graphes de connaissances permettent en effet de donner un sens commun à des informations différentes en apparence. Nous introduisons pour commencer une nouvelle ontologie permettant de décrire les infrastructures réseaux, les incidents, et les opérations d'exploitation. Nous décrivons de même une architecture pour transformer les données des réseaux en un graphe de connaissance organisé selon cette ontologie, en utilisant les techniques du Web Sémantique pour favoriser l'interopérabilité. Le graphe de connaissance résultant permet d'analyser le comportement des réseaux de façon homogène. Nous définissons ensuite trois familles de techniques algorithmiques pour utiliser les données du graphe, et montrons comment ces techniques peuvent être utilisées pour détecter des comportements anormaux des systèmes et aider les équipes d'exploitation dans le diagnostic d'incidents. Enfin, nous présentons une architecture logicielle pour simplifier les interactions des exploitants avec le graphe de connaissance et les algorithmes d'aide au diagnostique par l'intermédiaire d'une interface graphique spécialisée. Chaque proposition a été testé de manière indépendante par des expérimentations et démonstrations, ainsi que par un panel d'utilisateurs experts depuis l'interface graphique spécialisée dans le cadre d'une solution intégrée
Incident management on telecom and computer networks, whether it is related to infrastructure or cybersecurity issues, requires the ability to simultaneously and quickly correlate and interpret a large number of heterogeneous technical information sources. In this thesis, we study the benefits of structuring this data into a knowledge graph, and examine how this structure helps to manage the complexity of networks, particularly for applications in anomaly detection on dynamic and large-scale networks. Through an ontology (a model of concepts and relationships to describe an application domain), knowledge graphs allow different-looking information to be given a common meaning. We first introduce a new ontology for describing network infrastructures, incidents, and operations. We also describe an architecture for transforming network data into a knowledge graph organized according to this ontology, using Semantic Web technologies to foster interoperability. The resulting knowledge graph allows for standardized analysis of network behavior. We then define three families of algorithmic techniques for using the graph data, and show how these techniques can be used to detect abnormal system behavior and assist technical support teams in incident diagnosis. Finally, we present a software architecture to facilitate the interactions of support teams with the knowledge graph and diagnostic algorithms through a specialized graphical user interface. Each proposal has been independently tested through experiments and demonstrations, as well as by a panel of expert users using the specialized graphical interface within an integrated solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Talon, Bénédicte. "Un système d'aide à l'acquisition de concepts nouveaux pour un outil d'analyse du langage naturel". Compiègne, 1991. http://www.theses.fr/1991COMPD378.

Texto completo
Resumen
Le but de notre travail se situe dans un élan ergonomique. Il s'agit de permettre, lors de la rencontre d'un mot nouveau dans un processus de dialogue, son intégration dans un lexique. Cette intégration doit se faire sans contrainte pour l'utilisateur et cependant recouvrir le maximum d'informations utiles. L'entreprise décrite ici s'intègre dans un travail plus vaste qu'est le projet DOCAL que nous avons développé en amont de cette réalisation. DOCAL comporte un système de compréhension automatique de la langue en cours de développement depuis un peu plus de deux ans à l'Université de Technologie de Compiègne au sein de l'équipe LCS. Le premier chapitre présente la problématique générale du langage naturel. Nous y observons une brève page d'histoire, les diverses méthodes qu'elle a fait apparaitre et les différentes sources de connaissances nécessaires qui sont ressorties de ces recherches. La connaissance nécessaire à la compréhension dans DOCAL fait l'objet du deuxième chapitre. Nous y décrivons l'information pour chaque niveau d'utilisation : morphologique, syntaxique, sémantique et pragmatique de la manière dont nous intégrons ces différents niveaux. Le troisième chapitre nous permet d'aborder la présentation du projet DOCAL. Nous insisterons plus particulièrement sur l'aspect sémantique du système sur lequel nous avons le plus travaillé. Le dernier chapitre présente une méthode d'acquisition des connaissances par introduction de définitions. L'objet d'un tel système est de transformer une définition, type définition du dictionnaire, en une structure sémantique exploitable par le système de DOCAL. Enfin, les limites et performances du programme seront examinées en conclusion ainsi que les directions à prendre pour améliorer le travail produit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Gueffaz, Mahdi. "ScaleSem : model checking et web sémantique". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00801730.

Texto completo
Resumen
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l'application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle " Le Model checking ".Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu'un modèle d'un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d'interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l'outil de vérification de la méthode Model checking). Il est nécessaire d'avoir des outils logiciels permettant de réaliser la traduction d'un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Lajmi, Sonia. "Annotation et recherche contextuelle des documents multimédias socio-personnels". Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00668689.

Texto completo
Resumen
L'objectif de cette thèse est d'instrumentaliser des moyens, centrés utilisateur, de représentation, d'acquisition, d'enrichissement et d'exploitation des métadonnées décrivant des documents multimédias socio-personnels. Afin d'atteindre cet objectif, nous avons proposé un modèle d'annotation, appelé SeMAT avec une nouvelle vision du contexte de prise de vue. Nous avons proposé d'utiliser des ressources sémantiques externes telles que GeoNames , et Wikipédia pour enrichir automatiquement les annotations partant des éléments de contexte capturés. Afin d'accentuer l'aspect sémantique des annotations, nous avons modélisé la notion de profil social avec des outils du web sémantique en focalisant plus particulièrement sur la notion de liens sociaux et un mécanisme de raisonnement permettant d'inférer de nouveaux liens sociaux non explicités. Le modèle proposé, appelé SocialSphere, construit un moyen de personnalisation des annotations suivant la personne qui consulte les documents (le consultateur). Des exemples d'annotations personnalisées peuvent être des objets utilisateurs (e.g. maison, travail) ou des dimensions sociales (e.g. ma mère, le cousin de mon mari). Dans ce cadre, nous avons proposé un algorithme, appelé SQO, permettant de suggérer au consultateur des dimensions sociales selon son profil pour décrire les acteurs d'un document multimédia. Dans la perspective de suggérer à l'utilisateur des évènements décrivant les documents multimédias, nous avons réutilisé son expérience et l'expérience de son réseau de connaissances en produisant des règles d'association. Dans une dernière partie, nous avons abordé le problème de correspondance (ou appariement) entre requête et graphe social. Nous avons proposé de ramener le problème de recherche de correspondance à un problème d'isomorphisme de sous-graphe partiel. Nous avons proposé un algorithme, appelé h-Pruning, permettant de faire une correspondance rapprochée entre les nœuds des deux graphes : motif (représentant la requête) et social. Pour la mise en œuvre, nous avons réalisé un prototype à deux composantes : web et mobile. La composante mobile a pour objectif de capturer les éléments de contexte lors de la création des documents multimédias socio-personnels. Quant à la composante web, elle est dédiée à l'assistance de l'utilisateur lors de son annotation ou consultation des documents multimédias socio-personnels. L'évaluation a été effectuée en se servant d'une collection de test construite à partir du service de médias sociaux Flickr. Les tests ont prouvé : (i) l'efficacité de notre approche de recherche dans le graphe social en termes de temps d'exécution ; (ii) l'efficacité de notre approche de suggestion des événements (en effet, nous avons prouvé notre hypothèse en démontrant l'existence d'une cooccurrence entre le contexte spatio-temporel et les événements) ; (iii) l'efficacité de notre approche de suggestion des dimensions sociales en termes de temps d'exécution.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Allani, Atig Olfa. "Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels". Electronic Thesis or Diss., Paris 8, 2017. http://www.theses.fr/2017PA080032.

Texto completo
Resumen
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération
Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Dennemont, Yannick. "Une assistance à l'interaction 3D en réalité virutuelle par un raisonnement sémantique et une conscience du contexte". Thesis, Evry-Val d'Essonne, 2013. http://www.theses.fr/2013EVRY0010/document.

Texto completo
Resumen
Les tâches dans les environnements virtuels immersifs sont associées à des techniques et à des dispositifs d’interaction 3D (e.g. la sélection d’objets 3D à l’aide de la main virtuelle via un flystick). Alors que les environnements et les tâches deviennent de plus en plus complexes, les techniques ne peuvent plus être les mêmes pour chaque application, voire pour les différentes situations au sein d’une application. Une solution est d’adapter l’interaction en fonction des besoins de la situation pour améliorer l’utilisabilité. Ces adaptations peuvent être effectuées manuellement par le concepteur ou l’utilisateur, ou automatiquement par le système créant ainsi une interaction adaptative. La formalisation d’une telle assistance automatique nécessite la gestion d’informations pertinentes au vu de la situation. L’ensemble de ces informations fait émerger le contexte de l’interaction. L’assistance adaptative obtenue en raisonnant à partir de ces informations est ainsi consciente du contexte. De nombreuses possibilités existent pour l’obtenir. Notre objectif est une gestion du contexte qui préserve ses degrés élevés d’expressivité et d’évolutivité tout en étant facile à intégrer. Nous proposons une modélisation de ce problème par des graphes conceptuels basés sur une ontologie et gérés par un moteur externe en logique du premier ordre. Le moteur est générique et utilise une base de connaissance contenant des faits et des règles, qui peuvent être changés dynamiquement. Nous avons intégré une notion de confiance, afin d’établir l’adéquation d’une situation à la base de connaissances. La confiance des réactions est comparée à leur impact afin de ne garder que les pertinentes tout en évitant de saturer l’utilisateur. Les applications utilisent des outils qui peuvent être contrôlés par le moteur. Des capteurs permettent d’extraire des informations sémantiques pour le contexte. Des effecteurs permettent d’agir sur l’application et d’obtenir des adaptations. Un jeu d’outils et une base de connaissance pour l’interaction 3D ont été créés. De nombreuses étapes sont introduites dans la base de connaissance pour de bonnes combinaisons et une réflexion indépendante d’outils spécifiques. Nos premières applications illustrent la compréhension de la situation, dont les intérêts et difficultés de l’utilisateur, et le déclenchement d’assistances adaptées. Une étude hors ligne montre ensuite l’accès et l’évolution des étapes du moteur selon la situation. Le raisonnement sémantique générique obtenu est alors expressif, compréhensif, extensif et modifiable dynamiquement. Pour l’interaction 3D, il permet une assistance universelle automatique, ponctuelle ou manuelle à l’utilisateur et des analyses hors-lignes d’activités ou de conceptions pour le concepteur
Tasks in immersive virtual environments are associated with 3D interaction techniques and devices (e.g. the selection of 3D objects with the virtual hand and a flystick). As environments and tasks become more and more complex, techniques can not remain the same for each application, even for every situations of a single application. A solution is to adapt the interaction depending on the situation in order to increase usability. These adaptations can be done manually by the designer or the user, or automatically by the system thus creating an adaptative interaction. Formalisation of such assistance needs the management of pertinent information regarding the situation. Those items of information make the context emerge from the interaction. The adaptative assistance obtained by reasoning on this information is then context-aware. Numerous possibilities can be used to build one. Our objective is a context management that preserves its high degrees of expressiveness and evolutivity while being easy to plug in. We have built a model for this issue using conceptual graphs based on an ontology and managed externally with a first order logic engine. The engine is generic and uses a knowledge base with facts and rules which can be dynamically changed. We have added a confidence notion, in order to establish a situation similarity to the knowledge base. Reactions’confidences are compared to their impacts so as to keep only the pertinent ones while avoiding user overload. Applications have tools that can be controlled by the engine. Sensors are used to extract semantic information for the context. Effectors are used to act upon the application and to have adaptations. A tools set and a knowledge base have been created for 3D interaction. Numerous steps have been added in the knowledge base to obtain good combinations and a reasoning independent from specific tools. Our first applications shows the situation understanding, including user interests and difficulties, and the triggering of pertinent assistances. An off-line study illustrates the access and evolution of the internal engine steps. The built generic semantic reasoning is expressive, understandable, extensive and modifiable dynamically. For 3D interaction, it allows universal assistances for the user that can be automatic, punctual or manual and off-line activities or conceptions analysis fort he designers
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Allani, Atig Olfa. "Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels". Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080032.

Texto completo
Resumen
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération
Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Mugnier, Marie-Laure. "Contributions algorithmiques pour les graphes d'héritage et les graphes conceptuels". Montpellier 2, 1992. http://www.theses.fr/1992MON20195.

Texto completo
Resumen
Cette these comprend deux parties: l'une traitant d'algorithmes incrementaux d'heritage multiple, l'autre consistant en un travail de formalisation sur le modele des graphes conceptuels de j. Sowa. Dans le cadre des strategies automatiques d'heritage multiple et, plus precisement des strategies lineaires ou linearisations, nous etudions des proprietes assurant que le mecanisme d'heritage est comprehensible localement (propriete de monotonie) et supporte des modifications locales (proprietes de stabilite). Nous analysons les mecanismes des systemes existants (comme clos, loops, y3) du point de vue de ces proprietes. L'analyse debouche sur le developpement d'outils algorithmiques. Nous proposons, en particulier, un nouvel algorithme d'heritage verifiant la propriete de monotonie. Dans le cadre des graphes conceptuels, nous definissons precisement le modele de base, etudions les operations associees, notamment du point de vue de leur correspondance avec des operations logiques et de leur complexite algorithmique, et construisons des algorithmes polynomiaux
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Zneika, Mussab. "Interrogation du web sémantique à l'aide de résumés de graphes de données". Thesis, Cergy-Pontoise, 2019. http://www.theses.fr/2019CERG1010.

Texto completo
Resumen
La quantité de données RDF disponibles augmente rapidement à la fois en taille et en complexité, les Bases de Connaissances (Knowledge Bases – KBs) contenant des millions, voire des milliards de triplets étant aujourd’hui courantes. Plus de 1000 sources de données sont publiées au sein du nuage de Données Ouvertes et Liées (Linked Open Data – LOD), qui contient plus de 62 milliards de triplets, formant des graphes de données RDF complexes et de grande taille. L’explosion de la taille, de la complexité et du nombre de KBs et l’émergence des sources LOD ont rendu difficile l’interrogation, l’exploration, la visualisation et la compréhension des données de ces KBs, à la fois pour les utilisateurs humains et pour les programmes. Pour traiter ce problème, nous proposons une méthode pour résumer de grandes KBs RDF, basée sur la représentation du graphe RDF en utilisant les (meilleurs) top-k motifs approximatifs de graphe RDF. La méthode, appelée SemSum+, extrait l’information utile des KBs RDF et produit une description d’ensemble succincte de ces KBs. Elle extrait un type de schéma RDF ayant divers avantages par rapport aux schémas RDF classiques, qui peuvent être respectés seulement partiellement par les données de la KB. A chaque motif approximatif extrait est associé le nombre d’instances qu’il représente ; ainsi, lors de l’interrogation du graphe RDF résumé, on peut facilement déterminer si l’information nécessaire est présente et en quantité significative pour être incluse dans le résultat d’une requête fédérée. Notre méthode ne demande pas le schéma initial de la KB et marche aussi bien sans information de schéma du tout, ce qui correspond aux KBs modernes, construites soit ad-hoc, soit par fusion de fragments en provenance d’autres KBs. Elle fonctionne aussi bien sur des graphes RDF homogènes (ayant la même structure) ou hétérogènes (ayant des structures différentes, pouvant être le résultat de données décrites par des schémas/ontologies différentes).A cause de la taille et de la complexité des graphes RDF, les méthodes qui calculent le résumé en chargeant tout le graphe en mémoire ne passent pas à l’échelle. Pour éviter ce problème, nous proposons une approche générale parallèle, utilisable par n’importe quel algorithme approximatif de fouille de motifs. Elle nous permet de disposer d’une version parallèle de notre méthode, qui passe à l’échelle et permet de calculer le résumé de n’importe quel graphe RDF, quelle que soit sa taille.Ce travail nous a conduit à la problématique de mesure de la qualité des résumés produits. Comme il existe dans la littérature divers algorithmes pour résumer des graphes RDF, il est nécessaire de comprendre lequel est plus approprié pour une tâche spécifique ou pour une KB RDF spécifique. Il n’existe pas dans la littérature de critères d’évaluation établis ou des évaluations empiriques extensives, il est donc nécessaire de disposer d’une méthode pour comparer et évaluer la qualité des résumés produits. Dans cette thèse, nous définissons une approche complète d’évaluation de la qualité des résumés de graphes RDF, pour répondre à ce manque dans l’état de l’art. Cette approche permet une compréhension plus profonde et plus complète de la qualité des différents résumés et facilite leur comparaison. Elle est indépendante de la façon dont l’algorithme produisant le résumé RDF fonctionne et ne fait pas de suppositions concernant le type ou la structure des entrées ou des résultats. Nous proposons un ensemble de métriques qui aident à comprendre non seulement si le résumé est valide, mais aussi comment il se compare à d’autre résumés par rapport aux caractéristiques de qualité spécifiées. Notre approche est capable (ce qui a été validé expérimentalement) de mettre en évidence des différences très fines entre résumés et de produire des métriques capables de mesurer cette différence. Elle a été utilisée pour produire une évaluation expérimentale approfondie et comparative de notre méthode
The amount of RDF data available increases fast both in size and complexity, making available RDF Knowledge Bases (KBs) with millions or even billions of triples something usual, e.g. more than 1000 datasets are now published as part of the Linked Open Data (LOD) cloud, which contains more than 62 billion RDF triples, forming big and complex RDF data graphs. This explosion of size, complexity and number of available RDF Knowledge Bases (KBs) and the emergence of Linked Datasets made querying, exploring, visualizing, and understanding the data in these KBs difficult both from a human (when trying to visualize) and a machine (when trying to query or compute) perspective. To tackle this problem, we propose a method of summarizing a large RDF KBs based on representing the RDF graph using the (best) top-k approximate RDF graph patterns. The method is named SemSum+ and extracts the meaningful/descriptive information from RDF Knowledge Bases and produces a succinct overview of these RDF KBs. It extracts from the RDF graph, an RDF schema that describes the actual contents of the KB, something that has various advantages even compared to an existing schema, which might be partially used by the data in the KB. While computing the approximate RDF graph patterns, we also add information on the number of instances each of the patterns represents. So, when we query the RDF summary graph, we can easily identify whether the necessary information is present and if it is present in significant numbers whether to be included in a federated query result. The method we propose does not require the presence of the initial schema of the KB and works equally well when there is no schema information at all (something realistic with modern KBs that are constructed either ad-hoc or by merging fragments of other existing KBs). Additionally, the proposed method works equally well with homogeneous (having the same structure) and heterogeneous (having different structure, possibly the result of data described under different schemas/ontologies) RDF graphs.Given that RDF graphs can be large and complex, methods that need to compute the summary by fitting the whole graph in the memory of a (however large) machine will not scale. In order to overcome this problem, we proposed, as part of this thesis, a parallel framework that allows us to have a scalable parallel version of our proposed method. This will allow us to compute the summaries of any RDF graph regardless of size. Actually, we generalized this framework so as to be usable by any approximate pattern mining algorithm that needs parallelization.But working on this problem, introduced us to the issue of measuring the quality of the produced summaries. Given that in the literature exist various algorithms that can be used to summarize RDF graphs, we need to understand which one is better suited for a specific task or a specific RDF KB. In the literature, there is a lack of widely accepted evaluation criteria or an extensive empirical evaluation. This leads to the necessity of a method to compare and evaluate the quality of the produced summaries. So, in this thesis, we provide a comprehensive Quality Framework for RDF Graph Summarization to cover the gap that exists in the literature. This framework allows a better, deeper and more complete understanding of the quality of the different summaries and facilitates their comparison. It is independent of the way RDF summarization algorithms work and makes no assumptions on the type or structure neither of the input nor of the final results. We provide a set of metrics that help us understand not only if this is a valid summary but also how a summary compares to another in terms of the specified quality characteristic(s). The framework has the ability, which was experimentally validated, to capture subtle differences among summaries and produce metrics that depict that and was used to provide an extensive experimental evaluation and comparison of our method
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Ribeyre, Corentin. "Méthodes d’analyse supervisée pour l’interface syntaxe-sémantique : de la réécriture de graphes à l’analyse par transitions". Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC119.

Texto completo
Resumen
Aujourd'hui, le volume de données textuelles disponibles est colossal. Ces données représentent des informations inestimables impossibles à traiter manuellement. De fait, il est essentiel d'utiliser des techniques de Traitement Automatique des Langues pour extraire les informations saillantes et comprendre le sens sous-jacent. Cette thèse s'inscrit dans cette perspective et proposent des ressources, des modèles et des méthodes pour permettre : (i) l'annotation automatique de corpus à l'interface entre la syntaxe et la sémantique afin d'en extraire la structure argumentale (ii) l'exploitation des ressources par des méthodes efficaces. Nous proposons d’abord un système de réécriture de graphes et un ensemble de règles de réécriture manuellement écrites permettant l'annotation automatique de la syntaxe profonde du français. Grâce à cette approche, deux corpus ont vu le jour : le DeepSequoia, version profonde du corpus Séquoia et le DeepFTB, version profonde du French Treebank en dépendances. Ensuite, nous proposons deux extensions d'analyseurs par transitions et les adaptons à l'analyse de graphes. Nous développons aussi un ensemble de traits riches issus d'analyses syntaxiques. L'idée est d'apporter des informations topologiquement variées donnant à nos analyseurs les indices nécessaires pour une prédiction performante de la structure argumentale. Couplé à un analyseur par factorisation d'arcs, cet ensemble de traits permet d'établir l'état de l'art sur le français et de dépasser celui établi pour les corpus DM et PAS sur l'anglais. Enfin, nous explorons succinctement une méthode d'induction pour le passage d'un arbre vers un graphe
Nowadays, the amount of textual data has become so gigantic, that it is not possible to deal with it manually. In fact, it is now necessary to use Natural Language Processing techniques to extract useful information from these data and understand their underlying meaning. In this thesis, we offer resources, models and methods to allow: (i) the automatic annotation of deep syntactic corpora to extract argument structure that links (verbal) predicates to their arguments (ii) the use of these resources with the help of efficient methods. First, we develop a graph rewriting system and a set of manually-designed rewriting rules to automatically annotate deep syntax in French. Thanks to this approach, two corpora were created: the DeepSequoia, a deep syntactic version of the Séquoia corpus and the DeepFTB, a deep syntactic version of the dependency version of the French Treebank. Next, we extend two transition-based parsers and adapt them to be able to deal with graph structures. We also develop a set of rich linguistic features extracted from various syntactic trees. We think they are useful to bring different kind of topological information to accurately predict predicat-argument structures. Used in an arc-factored second-order parsing model, this set of features gives the first state-of-the-art results on French and outperforms the one established on the DM and PAS corpora for English. Finally, we briefly explore a method to automatically induce the transformation between a tree and a graph. This completes our set of coherent resources and models to automatically analyze the syntax-semantics interface on French and English
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Pradel, Camille. "D'un langage de haut niveau à des requêtes graphes permettant d'interroger le web sémantique". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2237/.

Texto completo
Resumen
Les modèles graphiques sont de bons candidats pour la représentation de connaissances sur le Web, où tout est graphes : du graphe de machines connectées via Internet au "Giant Global Graph" de Tim Berners-Lee, en passant par les triplets RDF et les ontologies. Dans ce contexte, le problème crucial de l'interrogation ontologique est le suivant : est-ce qu'une base de connaissances composée d'une partie terminologique et d'une partie assertionnelle implique la requête, autrement dit, existe-t-il une réponse à la question ? Ces dernières années, des logiques de description ont été proposées dans lesquelles l'expressivité de l'ontologie est réduite de façon à rendre l'interrogation calculable (familles DL-Lite et EL). OWL 2 restreint OWL-DL dans ce sens en se fondant sur ces familles. Nous nous inscrivons dans le contexte d'utilisation de formalismes graphiques pour la représentation (RDF, RDFS et OWL) et l'interrogation (SPARQL) de connaissances. Alors que les langages d'interrogation fondés sur des graphes sont présentés par leurs promoteurs comme étant naturels et intuitifs, les utilisateurs ne pensent pas leurs requêtes en termes de graphes. Les utilisateurs souhaitent des langages simples, proches de la langue naturelle, voire limités à des mots-clés. Nous proposons de définir un moyen générique permettant de transformer une requête exprimée en langue naturelle vers une requête exprimée dans le langage de graphe SPARQL, à l'aide de patrons de requêtes. Le début de ce travail coïncide avec les actions actuelles du W3C visant à préparer une nouvelle version de RDF, ainsi qu'avec le processus de standardisation de SPARQL 1. 1 gérant l'implication dans les requêtes
Graph models are suitable candidates for KR on the Web, where everything is a graph, from the graph of machines connected to the Internet, the "Giant Global Graph" as described by Tim Berners-Lee, to RDF graphs and ontologies. In that context, the ontological query answering problem is the following: given a knowledge base composed of a terminological component and an assertional component and a query, does the knowledge base implies the query, i. E. Is there an answer to the query in the knowledge base? Recently, new description logic languages have been proposed where the ontological expressivity is restricted so that query answering becomes tractable. The most prominent members are the DL-Lite and the EL families. In the same way, the OWL-DL language has been restricted and this has led to OWL2, based on the DL-Lite and EL families. We work in the framework of using graph formalisms for knowledge representation (RDF, RDF-S and OWL) and interrogation (SPARQL). Even if interrogation languages based on graphs have long been presented as a natural and intuitive way of expressing information needs, end-users do not think their queries in terms of graphs. They need simple languages that are as close as possible to natural language, or at least mainly limited to keywords. We propose to define a generic way of translating a query expressed in a high-level language into the SPARQL query language, by means of query patterns. The beginning of this work coincides with the current activity of the W3C that launches an initiative to prepare a possible new version of RDF and is in the process of standardizing SPARQL 1. 1 with entailments
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Lapalut, Stéphane. "Sémantique formelle et spécifications algébriques du raisonnement sur les graphes conceptuels simples et étendus". Nice, 1997. http://www.theses.fr/1997NICE5148.

Texto completo
Resumen
Ces travaux présentent une approche de la formalisation du raisonnement sur les graphes conceptuels proposés par J. F. Sowa. Dans la première partie, nous situons l'état de l'art et relevons les problématiques existantes dans ce formalisme. Nous en déduisons deux principales directions de travail : l'établissement d'une sémantique formelle pour les graphes conceptuels et l'étude d'une approche de grammaire de graphe permettant la spécification puis l'implantation des règles d'inférence sur ces graphes. La deuxième partie reconsidère le formalisme des graphes simples et propose les bases nécessaires à l'étude de leur extension à la négation. La troisième partie étend les graphes simples aux graphes étendus, qui intègrent principalement la logique et les règles d'inférence du système B de Peirce. Une sémantique au sens de Tarski, basée sur une interprétation du support d'une base de graphe, est proposée pour les deux types de graphes, incluant la négation dans le cas des graphes étendus. L'introduction de la notion de séquent de graphe permet l'étude de la validité de chaque opération de transformation et d'inférence sur les graphes conceptuels simples et étendus décrits. Un modèle algébrique pour chaque type de graphes permet l'établissement d'un schéma de graphe au sens du langage de spécification de grammaire de graphe progrès, à partir desquels chaque opération sur les graphes est spécifiée par une règle de grammaire de graphe. Les systèmes de requêtes par projections et par déduction se formalisent par des machines de grammaire de graphes utilisant deux approches de grammaires de graphes simples et étendus, pour lesquelles deux algorithmes non-déterministes sont proposés
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Dib, Saker. "L'interrogation des bases de données relationnelles assistée par le graphe sémantique normalisé". Lyon 1, 1993. http://www.theses.fr/1993LYO10122.

Texto completo
Resumen
Dans ce travail nous proposons une interface d'interrogation graphique des bases de donnees: ruitalk. Le schema de la base est modelise par un graphe semantique normalise. Ce graphe est le schema de donnees dans le modele relation universelle avec inclusions (rui). Il herite de la rigueur du modele relationnel de donnees et est plus riche semantiquement qu'un diagramme entite-association. Il visualise un certain nombre de rapprochements naturels entre tables d'une base de donnees: multiarcs de dependance d'inclusion (di) et arcs d'attributs communs univoques. Nous completons ce graphe en explicitant tous les rapprochements possibles entre relations du graphe semantique: aretes d'attributs communs, eclatements de di entre les relations normalisees. Nous montrons aussi que des attributs compatibles sont a la source de liens semantiques entre relations supplementaires. Ruitalk reste convival et ergonomique bien que le nombre de liens de jointures possibles entre relations peut etre grand. En effet, il ne genere pas simultanement tous ces liens, mais il affiche un graphe d'interrogation evolutif, accompagnant l'avancement de l'utilisateur dans le processus d'expression d'une question. Ce graphe visualise, en plus du graphe semantique normalise binaire, pour le sommet designe par l'utilisateur, ses liens avec chaque autre sommet. L'utilisateur est assiste au maximum dans la formulation de ses requetes par ruitalk. Il a a tout moment devant les yeux le schema des donnees. Pour definir le graphe de sa requete, il n'a qu'a designer les colonnes a projeter et les liens du graphe d'interrogation evolutif representant une jointure. Il peut aussi facilement specifier des predicats de selection et des sous-requetes. Il est constamment guide par le support graphique de ruitalk
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Saidouni, Djamel-Eddine. "Sémantique de maximalité : application au raffinement d'actions dans LOTOS". Toulouse 3, 1996. http://www.theses.fr/1996TOU30040.

Texto completo
Resumen
Cette thèse se situe dans le cadre de méthodes de conception de systèmes répartis s'appuyant sur des techniques de raffinement d'actions. En considérant la technique de description formelle lotos comme langage d'étude, elle aborde des problèmes théoriques concernant l'adéquation de différentes sémantiques du parallélisme pour la mise en oeuvre du raffinement d'actions. Bien que la sémantique d'entrelacement soit souvent considérée comme étant la plus simple pour exprimer le parallélisme, elle ne permet pas de représenter correctement le comportement de systèmes concurrents dès que les actions ne sont plus atomiques. La non atomicité des actions implique l'utilisation de sémantiques de vrai parallélisme, dont deux, la maximalité et la causalité, sont développées ici pour lotos. Dans le but de mieux comprendre différents aspects du raffinement d'actions, et de faciliter son exploitation ultérieure, nous avons défini le modèle des arbres maximaux qui est à la base de la sémantique dénotationnelle proposée pour lotos. Cette sémantique a été prouvée compatible avec la sémantique opérationnelle structurée de maximalite de lotos étendu par un opérateur de raffinement d'actions. Pour comparer sémantiques de maximalite et de causalité, la même approche technique a été utilisée pour proposer une nouvelle définition des arbres causaux, dans laquelle les références statiques ont été remplacées par des références dynamiques. Les arbres ainsi obtenus sont appelés arbres causaux dynamiques. Finalement, dans le but de passer de l'étude théorique du raffinement d'actions à sa mise en oeuvre pratique, nous avons proposé une solution permettant d'effectuer un raffinement syntaxique d'actions en lotos, et qui prend en compte le problème du rendez-vous multiple
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Buron, Maxime. "Raisonnement efficace sur des grands graphes hétérogènes". Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX061.

Texto completo
Resumen
Le Web sémantique propose des représentations de connaissances, qui permettent d'intégrer facilement des données hétérogènes issues de plusieurs sources en une base de connaissances unifiée. Dans cette thèse, nous étudions des techniques d'interrogation de telles bases de connaissances.La première partie est dédiée à des techniques de réponse à des requêtes sur une base de connaissances représentée par un graphe RDF sous des contraintes ontologiques. Les connaissances implicites produites par le raisonnement, à partir des règles de déduction RDFS, doivent être prises en compte pour répondre correctement à de telles requêtes.Pour commencer, nous présentons un algorithme de reformulation de requêtes dites Basic Graph Pattern (BGP), qui exploite une partition des règles de déduction en des règles sur les assertions et sur les contraintes. Puis nous introduisons une nouvelle disposition du stockage des graphes RDF, qui combine deux dispositions connues. Pour ces deux contributions, des expérimentations permettent de valider nos résultats théoriques et algorithmiques.Dans la deuxième partie, nous considérons le problème d'interrogation, par des requêtes BGP, de sources de données hétérogènes intégrées en un graphe RDF. Nous introduisons un cadre d'intégration de données sous des contraintes ontologiques RDFS, utilisant une spécification d'intégration basée sur des mappings Global-Local-As-View, rarement considérée jusqu'ici dans la littérature. Nous présentons plusieurs stratégies de réponse à des requêtes, qui, soit matérialisent les données en un graphe RDF, soit laissent ce graphe virtuel. Ces stratégies diffèrent sur quand et comment le raisonnement RDFS est supporté. Nous avons implémenté ces stratégies dans une plate-forme et mené des expérimentations qui démontrent l'intérêt particulier d'une des stratégies basée sur la saturation des mappings. Finalement, nous montrons que cette dernière technique peut être étendue au delà des règles de déduction RDFS au raisonnement défini par un sous-ensemble des règles existentielles
The Semantic Web offers knowledge representations, which allow to integrate heterogeneous data from several sources into a unified knowledge base. In this thesis, we investigate techniques for querying such knowledge bases.The first part is devoted to query answering techniques on a knowledge base, represented by an RDF graph subject to ontological constraints. Implicit information entailed by the reasoning, enabled by the set of RDFS entailment rules, has to be taken into account to correctly answer such queries. First, we present a sound and complete query reformulation algorithm for Basic Graph Pattern queries, which exploits a partition of RDFS entailment rules into assertion and constraint rules. Second, we introduce a novel RDF storage layout, which combines two well-known layouts. For both contributions, our experiments assess our theoretical and algorithmic results.The second part considers the issue of querying heterogeneous data sources integrated into an RDF graph, using BGP queries. Following the Ontology-Based Data Access paradigm, we introduce a framework of data integration under an RDFS ontology, using the Global-Local-As-View mappings, rarely considered in the literature.We present several query answering strategies, which may materialize the integrated RDF graph or leave it virtual, and differ on how and when RDFS reasoning is handled. We implement these strategies in a platform, in order to conduct experiments, which demonstrate the particular interest of one of the strategies based on mapping saturation. Finally, we show that mapping saturation can be extended to reasoning defined by a subset of existential rules
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Raad, Joe. "Gestion d'identité dans des graphes de connaissances". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLA028/document.

Texto completo
Resumen
En l'absence d'une autorité de nommage centrale sur le Web de données, il est fréquent que différents graphes de connaissances utilisent des noms (IRIs) différents pour référer à la même entité. Chaque fois que plusieurs noms sont utilisés pour désigner la même entité, les faits owl:sameAs sont nécessaires pour déclarer des liens d’identité et améliorer l’exploitation des données disponibles. De telles déclarations d'identité ont une sémantique logique stricte, indiquant que chaque propriété affirmée à un nom sera également déduite à l'autre et vice versa. Bien que ces inférences puissent être extrêmement utiles pour améliorer les systèmes fondés sur les connaissances tels que les moteurs de recherche et les systèmes de recommandation, l'utilisation incorrecte de l'identité peut avoir des effets négatifs importants dans un espace de connaissances global comme le Web de données. En effet, plusieurs études ont montré que owl:sameAs est parfois incorrectement utilisé sur le Web des données. Cette thèse étudie le problème de liens d’identité erronés ou inappropriés qui sont exprimés par des liens owl:sameAs et propose des solutions différentes mais complémentaires. Premièrement, elle présente une ressource contenant la plus grande collection de liens d’identité collectés du LOD Cloud, avec un service Web à partir duquel les données et leur clôture transitive peuvent être interrogées. Une telle ressource a à la fois des impacts pratiques (elle aide les utilisateurs à trouver différents noms pour la même entité), ainsi qu'une valeur analytique (elle révèle des aspects importants de la connectivité du LOD Cloud). En outre, en s’appuyant sur cette collection de 558 millions liens d’identité, nous montrons comment des mesures de réseau telles que la structure de communauté du réseau owl:sameAs peuvent être utilisées afin de détecter des liens d’identité éventuellement erronées. Pour cela, nous attribuons un degré d'erreur pour chaque lien owl:sameAs en fonction de la densité de la ou des communautés dans lesquelles elles se produisent et de leurs caractéristiques symétriques. L'un des avantages de cette approche est qu'elle ne repose sur aucune connaissance supplémentaire. Finalement, afin de limiter l'utilisation excessive et incorrecte du owl:sameAs, nous définissons une nouvelle relation pour représenter l'identité de deux instances d’une classe dans un contexte spécifique (une sous-partie de l’ontologie). Cette relation d'identité s'accompagne d'une approche permettant de détecter automatiquement ces liens, avec la possibilité d'utiliser certaines contraintes expertes pour filtrer des contextes non pertinents. La détection et l’exploitation des liens d’identité contextuels détectés sont effectuées sur deux graphes de connaissances pour les sciences de la vie, construits en collaboration avec des experts du domaine de l’institut national de la recherche agronomique (INRA)
In the absence of a central naming authority on the Web of data, it is common for different knowledge graphs to refer to the same thing by different names (IRIs). Whenever multiple names are used to denote the same thing, owl:sameAs statements are needed in order to link the data and foster reuse. Such identity statements have strict logical semantics, indicating that every property asserted to one name, will also be inferred to the other, and vice versa. While such inferences can be extremely useful in enabling and enhancing knowledge-based systems such as search engines and recommendation systems, incorrect use of identity can have wide-ranging effects in a global knowledge space like the Web of data. With several studies showing that owl:sameAs is indeed misused for different reasons, a proper approach towards the handling of identity links is required in order to make the Web of data succeed as an integrated knowledge space. This thesis investigates the identity problem at hand, and provides different, yet complementary solutions. Firstly, it presents the largest dataset of identity statements that has been gathered from the LOD Cloud to date, and a web service from which the data and its equivalence closure can be queried. Such resource has both practical impacts (it helps data users and providers to find different names for the same entity), as well as analytical value (it reveals important aspects of the connectivity of the LOD Cloud). In addition, by relying on this collection of 558 million identity statements, we show how network metrics such as the community structure of the owl:sameAs graph can be used in order to detect possibly erroneous identity assertions. For this, we assign an error degree for each owl:sameAs based on the density of the community(ies) in which they occur, and their symmetrical characteristics. One benefit of this approach is that it does not rely on any additional knowledge. Finally, as a way to limit the excessive and incorrect use of owl:sameAs, we define a new relation for asserting the identity of two ontology instances in a specific context (a sub-ontology). This identity relation is accompanied with an approach for automatically detecting these links, with the ability of using certain expert constraints for filtering irrelevant contexts. As a first experiment, the detection and exploitation of the detected contextual identity links are conducted on two knowledge graphs for life sciences, constructed in a mutual effort with domain experts from the French National Institute of Agricultural Research (INRA)
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Islam, Md Kamrul. "Explainable link prediction in large complex graphs - application to drug repurposing". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0203.

Texto completo
Resumen
De nombreux systèmes complexes du monde réel peuvent être représentés par des graphes, où les nœuds représentent des entités et les liens des relations entre les paires de nœuds. La prédiction de liens (LP) est l'un des problèmes les plus intéressants et les plus anciens dans le domaine de l'exploration de graphes ; elle prédit la probabilité d'un lien entre deux nœuds non connectés. Cette thèse étudie le problème LP dans les graphes simples et les graphes de connaissances (KGs). La première partie de cette thèse se concentre sur le problème LP dans les graphes simples. Dans la première étude, des approches basées sur la similarité et sur l'encastrement sont évaluées et comparées sur des graphes simples de différents domaines. L'étude a également identifié la difficulté de fixer le seuil du score de similarité pour calculer la métrique de précision des approches basées sur la similarité et a proposé une nouvelle méthode pour calculer la métrique. Les résultats ont montré la supériorité attendue des approches basées sur l'intégration. Cependant, chaque approche basée sur la similarité s'est avérée compétitive sur des graphes aux propriétés spécifiques. Nous avons pu vérifier expérimentalement que les approches basées sur la similarité sont explicables mais manquent de généralisation, tandis que les approches basées sur l'encastrement sont générales mais non explicables. La deuxième étude tente de surmonter la limitation de l'inexplicabilité des approches basées sur l'encastrement en découvrant des connexions intéressantes entre elles et les approches basées sur la similarité. La troisième étude démontre comment les approches basées sur la similarité peuvent être assemblées pour concevoir une approche LP supervisée explicable. Il est intéressant de noter que l'étude montre des performances LP élevées pour l'approche supervisée sur différents graphes, ce qui est très satisfaisant. La deuxième partie de la thèse se concentre sur les LP dans les KGs. Un KG est représenté comme une collection de triplets RDF, (head,relation,tail) où les entités head et tail sont reliées par une relation spécifique. Le problème de LP dans un KG est formulé comme la prédiction de la tête ou de la queue manquante dans un triplet. La LP basée sur l'incorporation de KG est devenue très populaire ces dernières années, et la génération de triplets négatifs est une tâche importante dans les méthodes d'incorporation. La quatrième étude traite d'une nouvelle méthode appelée SNS pour générer des triplets négatifs de haute qualité. Nos résultats montrent une meilleure performance LP lorsque SNS est utilisé que lorsque d'autres méthodes d'échantillonnage négatif sont utilisées. La deuxième étude traite d'une nouvelle méthode d'extraction de règles neuro-symboliques et d'une stratégie d'abduction pour expliquer les LP par une approche basée sur l'intégration en utilisant les règles apprises. La troisième étude applique notre LP explicable pour développer une nouvelle approche de repositionnement des médicaments pour COVID-19. L'approche apprend un ensemble d'enchâssements d'entités et de relations dans un KG centré sur COVID-19 pour obtenir un meilleur enchâssement des éléments du graphe. Pour la première fois à notre connaissance, des méthodes de criblage virtuel sont ensuite utilisées pour évaluer les prédictions obtenues à l'aide des embeddings. L'évaluation moléculaire et les chemins explicatifs apportent de la fiabilité aux résultats de prédiction et sont de nouvelles méthodes complémentaires et réutilisables pour mieux évaluer les molécules proposées pour le repositionnement. La dernière étude propose une architecture distribuée pour l'apprentissage des KG embeddings dans des environnements distribués et parallèles. Les résultats révèlent que l'apprentissage dans l'environnement distribué proposé, par rapport à un apprentissage centralisé, réduit considérablement le temps de calcul des méthodes d'incorporation KG sans affecter les performances des LP
Many real-world complex systems can be well-represented with graphs, where nodes represent objects or entities and links/relations represent interactions between pairs of nodes. Link prediction (LP) is one of the most interesting and long-standing problems in the field of graph mining; it predicts the probability of a link between two unconnected nodes based on available information in the current graph. This thesis studies the LP problem in graphs. It consists of two parts: LP in simple graphs and LP knowledge graphs (KGs). In the first part, the LP problem is defined as predicting the probability of a link between a pair of nodes in a simple graph. In the first study, a few similarity-based and embedding-based LP approaches are evaluated and compared on simple graphs from various domains. he study also criticizes the traditional way of computing the precision metric of similarity-based approaches as the computation faces the difficulty of tuning the threshold for deciding the link existence based on the similarity score. We proposed a new way of computing the precision metric. The results showed the expected superiority of embedding-based approaches. Still, each of the similarity-based approaches is competitive on graphs with specific properties. We could check experimentally that similarity-based approaches are fully explainable but lack generalization due to their heuristic nature, whereas embedding-based approaches are general but not explainable. The second study tries to alleviate the unexplainability limitation of embedding-based approaches by uncovering interesting connections between them and similarity-based approaches to get an idea of what is learned in embedding-based approaches. The third study demonstrates how the similarity-based approaches can be ensembled to design an explainable supervised LP approach. Interestingly, the study shows high LP performance for the supervised approach across various graphs, which is competitive with embedding-based approaches.The second part of the thesis focuses on LP in KGs. A KG is represented as a collection of RDF triples, (head,relation,tail) where the head and the tail are two entities which are connected by a specific relation. The LP problem in a KG is formulated as predicting missing head or tail entities in a triple. LP approaches based on the embeddings of entities and relations of a KG have become very popular in recent years, and generating negative triples is an important task in KG embedding methods. The first study in this part discusses a new method called SNS to generate high-quality negative triples during the training of embedding methods for learning embeddings of KGs. The results we produced show better LP performance when SNS is injected into an embedding approach than when injecting state-of-the-art negative triple sampling methods. The second study in the second part discusses a new neuro-symbolic method of mining rules and an abduction strategy to explain LP by an embedding-based approach utilizing the learned rules. The third study applies the explainable LP to a COVID-19 KG to develop a new drug repurposing approach for COVID-19. The approach learns ”ensemble embeddings” of entities and relations in a COVID-19 centric KG, in order to get a better latent representation of the graph elements. For the first time to our knowledge, molecular docking is then used to evaluate the predictions obtained from drug repurposing using KG embedding. Molecular evaluation and explanatory paths bring reliability to prediction results and constitute new complementary and reusable methods for assessing KG-based drug repurposing. The last study proposes a distributed architecture for learning KG embeddings in distributed and parallel settings. The results of the study that the computational time of embedding methods improves remarkably without affecting LP performance when they are trained in the proposed distributed settings than the traditional centralized settings
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Khajeh, Nassiri Armita. "Expressive Rule Discovery for Knowledge Graph Refinement". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG045.

Texto completo
Resumen
Les graphes de connaissances (KG) sont des structures de graphes hétérogènes représentant des faits dans un format lisible par une machine. Ils trouvent des applications dans des tâches telles que la réponse automatique aux questions, la désambiguïsation et liaison d'entités. Cependant, les graphes de connaissances sont intrinsèquement incomplets et il est essentiel de les raffiner pour améliorer leur qualité. Pour compléter le graphe de connaissances, il est possible de prédire les liens manquants dans un graphe de connaissances ou d'intégrer des sources externes. En extrayant des règles du graphe de connaissances, nous pouvons les exploiter pour compléter le graphe tout en fournissant des explications. Plusieurs approches ont été proposées pour extraire efficacement des règles. Or, la littérature manque de méthodes efficaces pour incorporer des prédicats numériques dans les règles. Pour répondre à cette lacune, nous proposons REGNUM, qui permet d'extraire des règles numériques avec des contraintes d'intervalle. REGNUM s'appuie sur les règles générées par un système d'extraction de règles existant et les enrichit en incorporant des prédicats numériques guidés par des mesures de qualité. En outre, la nature interconnectée des données web offre un potentiel significatif pour compléter et raffiner les KG, par exemple, par le liage des données, qui consiste à trouver des liens d'identité entre des entités de KG différents. Nous présentons RE-miner, une approche qui extrait des expressions référentielles (RE) pour une classe dans un graphe de connaissances.Les REs sont des règles qui ne s'appliquent qu'à une seule entité. Elles facilitent la découverte de connaissances et permettent de lier les données de manière explicable. De plus, nous visons à explorer les avantages et les opportunités de l'affinage des modèles linguistiques pour combler le fossé entre les KG et les données textuelles. Nous présentons GilBERT, qui exploite le fine-tuning sur des modèles linguistiques tels que BERT en optimisant une fonction de coût par triplet pour les tâches de prédiction de relation et de classification de triple. En prenant en compte ces défis et en proposant des approches novatrices, cette thèse contribue au raffinement des KG, en mettant particulièrement l'accent sur l'explicabilité et la découverte de connaissances. Les résultats de cette recherche ouvrent la voie à de nouvelles questions de recherche qui font progresser vers des KG de meilleure qualité
Knowledge graphs (KGs) are heterogeneous graph structures representing facts in a machine-readable format. They find applications in tasks such as question answering, disambiguation, and entity linking. However, KGs are inherently incomplete, and refining them is crucial to improve their effectiveness in downstream tasks. It's possible to complete the KGs by predicting missing links within a knowledge graph or integrating external sources and KGs. By extracting rules from the KG, we can leverage them to complete the graph while providing explainability. Various approaches have been proposed to mine rules efficiently. Yet, the literature lacks effective methods for effectively incorporating numerical predicates in rules. To address this gap, we propose REGNUM, which mines numerical rules with interval constraints. REGNUM builds upon the rules generated by an existing rule mining system and enriches them by incorporating numerical predicates guided by quality measures. Additionally, the interconnected nature of web data offers significant potential for completing and refining KGs, for instance, by data linking, which is the task of finding sameAs links between entities of different KGs. We introduce RE-miner, an approach that mines referring expressions (REs) for a class in a knowledge graph and uses them for data linking. REs are rules that are only applied to one entity. They support knowledge discovery and serve as an explainable way to link data. We employ pruning strategies to explore the search space efficiently, and we define characteristics to generate REs that are more relevant for data linking. Furthermore, we aim to explore the advantages and opportunities of fine-tuning language models to bridge the gap between KGs and textual data. We propose GilBERT, which leverages fine-tuning techniques on language models like BERT using a triplet loss. GilBERT demonstrates promising results for refinement tasks of relation prediction and triple classification tasks. By considering these challenges and proposing novel approaches, this thesis contributes to KG refinement, particularly emphasizing explainability and knowledge discovery. The outcomes of this research open doors to more research questions and pave the way for advancing towards more accurate and comprehensive KGs
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Simonet, Geneviève. "Héritage non monotone à base de chemins et de graphes partiels". Montpellier 2, 1994. http://www.theses.fr/1994MON20151.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Basse, Adrien. "Caractérisation incrémentale d'une base de triplets RDF". Nice, 2012. http://www.theses.fr/2012NICE4056.

Texto completo
Resumen
Nombreuses sont les applications web sémantique qui s’intéressent à la problématique de l’intégration de données issues de sources RDF distribuées. Pour l’exécution de requêtes distribuées, par exemple, plusieurs solutions sont ainsi proposées comme SPARQL 1. 1 Federation qui définit un ensemble d’extensions au langage de requête SPARQL. Si ces extensions permettent de déléguer une partie de requête à un ensemble de services, un problème majeur subsiste encore pour déterminer automatiquement en amont les services disposant de réponses pour une requête donnée. La résolution de ce problème est particulièrement cruciale dans un contexte comme le Linking Open Data où de nombreuses sources RDF hétérogènes sont publiées. Pour pouvoir envoyer une requête uniquement aux sources de données concernées, une description complète et compacte de chaque source est nécessaire. Pour connaître le contenu d’une source RDF nous pouvons nous baser sur les motifs de graphes qui la composent. Dans cette thèse, nous nous intéressons à l’extraction de ces motifs de graphes. Nous proposons pour cela une extension du codage DFS (Depth-First Search) de (Yan et Han, 2002) aux motifs de graphes RDF qui sont orientés et étiquetés et une opération de jointure entre codes DFS pour construire itérativement les différents niveaux d’une structure d’index de sources de données RDF. La structure d’index ainsi générée est constituée d’une hiérarchie de graphes RDF et permet d’identifier les types de données contenus dans la source indexée. Le choix du codage DFS pour représenter les motifs de graphe facilite entre autre les tests isomorphes et les opérations de jointure entre motifs de graphe mais pose un réel problème d’exploitation de la structure d’index. En effet, les hiérarchies de codes DFSR issues de processus de construction de structures d’index sont difficiles à lire (succession d’entiers) et à interroger. Pour palier cela, nous proposons une interface de visualisation des structures d’index générées et un ensemble d’algorithmes de transformation des codes DFSR dans des formats comme RDF plus « lisibles » et plus facilement exploitables. L’ajout ou la suppression d’annotations de la source de données RDF peut entraîner des changements dans la structure d’index. A la place d’une reconstruction totale de la structure d’index nous proposons une procédure qui identifie d’abord les répercussions des mises à jour de la source dans le premier niveau de la structure d’index et ensuite propage ses modifications si nécessaires aux niveaux supérieurs. Pour la manipulation des sources de données RDF, notre algorithme utilise le moteur de recherche sémantique CORESE/KGRAM de (Corby, 2008) par l’intermédiaire de son API. Nous avons testé notre algorithme en générant des structures d’index à partir de plusieurs sources de données RDF choisies pour la diversité des motifs de graphes qu’elles contiennent
Many semantics web applications address the issue of integrating data from distributed RDF triple stores. There are several solutions for distributed query processing such as SPARQL 1. 1 Federation, which defines extensions to the SPARQL Query Language to support distributed query execution. Such extensions make it possible to formulate a query that delegates parts of the query to a series of services, but one issue remains : how to automate the selection of RDF triple stores containing relevant data to answer a query. This is especially true in the context of the Linking Open data project where numerous and very heterogeneous datasets are interlinked, allowing for interesting queries across several sources. To decompose and send queries targeting only relevant stores, we need a means to describe each RDF triple store, i. E. An index structure which provides a complete and compact index items. In this thesis we present an approach to extract these graph patterns from RDF triple store. For this purpose, we extend Depth-First search coding (DFS) by (Yan and Han, 2002) to RDF labeled and oriented multigraphs and we provide a join operator between two DFS codes so as to sequentially build the different levels of the index structure. Insertion or deletion of annotations in the triple store may cause changes to the index structure. To handle update in triple store, we proposed a procedure to identify exactly the changes in the first level of the index structure and propagate them to the following levels. The DFSR coding makes it possible for us to efficiently manipulate graph patterns, but is difficult to read (succession of integer number). To facilitate the reading of our index structure, we propose a visualization user-interface and algorithms to turn a DFS code into a more legible format like RDF. Our algorithm relies on the CORESE/KGRAM by (Corby, 2008). We have tested our algorithm on many datasets. During the building f index structures we keep a set of data in order to help us to better understand the progress of our algorithm and improve it
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Destandau, Marie. "Path-Based Interactive Visual Exploration of Knowledge Graphs". Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG063.

Texto completo
Resumen
Les Graphes de connaissances représentent, connectent, et rendent interprétables par des algorithmes des connaissances issues de différents domaines. Ils reposent sur des énoncés simples que l’on peut chaîner pour former des énoncés de plus haut niveau. Produire des interfaces visuelles interactives pour explorer des collections dans ces données est un problème complexe, en grande partie non résolu. Dans cette thèse, je propose le concept de profils de chemins pour décrire les énoncés de haut niveau. Je l’utilise pour développer 3 outils open source : S-Paths permet de naviguer dans des collections à travers des vues synthétiques ; Path Outlines permet aux producteurs de données de parcourir les énoncés qui peuvent produits par leurs graphes ; et The Missing Path leur permet d’analyser l’incomplétude de leurs données. Je montre que le concept, en plus de supporter des interfaces visuelles interactives pour les graphes de connaissances, aide aussi à en améliorer la qualité
Knowledge Graphs facilitate the pooling and sharing of information from different domains. They rely on small units of information named triples that can be combined to form higher-level statements. Producing interactive visual interfaces to explore collections in Knowledge Graphs is a complex problem, mostly unresolved. In this thesis, I introduce the concept of path outlines to encode aggregate information relative to a chain of triples. I demonstrate 3 applications of the concept withthe design and implementation of 3 open source tools. S-Paths lets users browse meaningful overviews of collections; Path Outlines supports data producers in browsing the statements thatcan be produced from their data; and The Missing Path supports data producers in analysingincompleteness in their data. I show that the concept not only supports interactive visual interfaces for Knowledge Graphs but also helps better their quality
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Bonner, Chantal. "Classification et composition de services Web : une perspective réseaux complexes". Corte, 2011. http://www.theses.fr/2011CORT0008.

Texto completo
Resumen
Les services Web sont des briques de bases logicielles s’affranchissant de toute contrainte de compatibilité logicielle ou matérielle. Ils sont mis en œuvre dans une architecture orientée service. A l’heure actuelle, les travaux de recherche se concentrent principalement sur la découverte et la composition. Cependant, la complexité de la structure de l’espace des services Web et son évolution doivent nécessairement être prises en compte. Ceci ne peut se concevoir sans faire appel à la science des systèmes complexes, et notamment à la théorie des réseaux complexes. Dans cette thèse, nous définissons un ensemble de réseaux pour la composition sur la base de services décrits dans des langages syntaxique (WSDL) et sémantique (SAWSDL). L’exploration expérimentale de ces réseaux permet de mettre en évidence les propriétés caractéristiques des grands graphes de terrain (la propriété petit monde et la distribution sans échelle). On montre par ailleurs que ces réseaux possèdent une structure communautaire. Ce résultat permet d’apporter une réponse alternative à la problématique de la classification de services selon les domaines d’intérêts. En effet, les communautés regroupent non pas des services aux fonctionnalités similaires, mais des services qui ont en commun de nombreuses relations d’interaction. Cette organisation peut être utilisée entre autres, afin de guider les algorithmes de recherche de compositions. De plus, en ce qui concerne la classification des services aux fonctionnalités similaires en vue de la découverte ou de la substitution, nous proposons un ensemble de modèles de réseaux pour les représentations syntaxique et sémantique des services, traduisant divers degrés de similitude. L’analyse topologique de ces réseaux fait apparaître une structuration en composantes et une organisation interne des composantes autour de motifs élémentaires. Cette propriété permet une caractérisation à deux niveaux de la notion de communauté de services similaires, mettant ainsi en avant la souplesse de ce nouveau modèle d’organisation. Ces travaux ouvrent de nouvelles perspectives dans les problématiques de l’architecture orientée service
Web services are building blocks for modular applications independent of any software or hardware platforms. They implement the service oriented architecture (SOA). Research on Web services mainly focuses on discovery and composition. However, complexity of the Web services space structure and its development must necessarily be taken into account. This cannot be done without using the complex systems science, including the theory of complex networks. In this thesis, we define a set of networks based on Web services composition when Web services are syntactically (WSDL) and semantically (SAWSDL) described. The experimental exploration of these networks can reveal characteristic properties of complex networks (small world property and scale-free distribution). It also shows that these networks have a community structure. This result provides an alternative answer to the problem of Web services classification by domain of interest. Indeed, communities don’t gather Web services with similar functionalities, but Web services that share many interaction relationships. This organization can be used among others, to guide compositions search algorithms. Furthermore, with respect to the classification based on Web services functional similarity for discovery or substitution, we propose a set of network models for syntactic and semantic representations of Web services, reflecting various similarity degrees. The topological analysis of these networks reveals a component structure and internal organization of thecomponents around elementary patterns. This property allows a two-level characterization of the notion of community of similar Web services that highlight the flexibility of this new organizational model. This work opens new perspectives in the issues of service-oriented architecture
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Bannour, Ines. "Recherche d’information s´emantique : Graphe sémantico-documentaire et propagation d’activation". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD024/document.

Texto completo
Resumen
La recherche d’information sémantique (RIS), cherche à proposer des modèles qui permettent de s’appuyer, au delà des calculs statistiques, sur la signification et la sémantique des mots du vocabulaire, afin de mieux caractériser les documents pertinents au regard du besoin de l’utilisateur et de les retrouver. Le but est ainsi de dépasser les approches classiques purement statistiques (de « sac de mots »), fondées sur des appariements de chaînes de caractères sur la base des fréquences des mots et de l’analyse de leurs distributions dans le texte. Pour ce faire, les approches existantes de RIS, à travers l’exploitation de ressources sémantiques externes (thésaurus ou ontologies), procèdent en injectant des connaissances dans les modèles classiques de RI de manière à désambiguïser le vocabulaire ou à enrichir la représentation des documents et des requêtes. Il s’agit le plus souvent d’adaptations de ces modèles, on passe alors à une approche « sac de concepts » qui permet de prendre en compte la sémantique notamment la synonymie. Les ressources sémantiques, ainsi exploitées, sont « aplaties », les calculs se cantonnent, généralement, à des calculs de similarité sémantique. Afin de permettre une meilleure exploitation de la sémantique en RI, nous mettons en place un nouveau modèle, qui permet d’unifier de manière cohérente et homogène les informations numériques (distributionnelles) et symboliques (sémantiques) sans sacrifier la puissance des analyses. Le réseau sémantico-documentaire ainsi modélisé est traduit en graphe pondéré. Le mécanisme d’appariement est assuré par une propagation d’activation dans le graphe. Ce nouveau modèle permet à la fois de répondre à des requêtes exprimées sous forme de mots clés, de concepts oumême de documents exemples. L’algorithme de propagation a le mérite de préserver les caractéristiques largement éprouvéesdes modèles classiques de recherche d’information tout en permettant une meilleure prise en compte des modèles sémantiques et de leurs richesse. Selon que l’on introduit ou pas de la sémantique dans ce graphe, ce modèle permet de reproduire une RI classique ou d’assurer en sus certaines fonctionnalités sémantiques. La co-occurrence dans le graphe permet alors de révélerune sémantique implicite qui améliore la précision en résolvant certaines ambiguïtés sémantiques.L’exploitation explicite des concepts ainsi que des liens du graphe, permettent la résolution des problèmes de synonymie, de term mismatch et de couverture sémantique. Ces fonctionnalités sémantiques, ainsi que le passage à l’échelle du modèle présenté, sont validés expérimentalement sur un corpus dans le domaine médical
Semantic information retrieval (SIR) aims to propose models that allow us to rely, beyond statistical calculations, on the meaning and semantics of the words of the vocabulary, in order to better represent relevant documents with respect to user’s needs, and better retrieve them.The aim is therefore to overcome the classical purely statistical (« bag of wordsé») approaches, based on strings’ matching and the analysis of the frequencies of the words and their distributions in the text.To do this, existing SIR approaches, through the exploitation of external semantic resources (thesauri, ontologies, etc.), proceed by injecting knowledge into the classical IR models (such as the vector space model) in order to disambiguate the vocabulary or to enrich the representation of documents and queries.These are usually adaptations of the classical IR models. We go so to a « bag of concepts » approach which allows us to take account of synonymy. The semantic resources thus exploited are « flattened », the calculations are generally confined to calculations of semantic similarities.In order to better exploit the semantics in RI, we propose a new model, which allows to unify in a coherent and homogeneous way the numerical (distributional) and symbolic (semantic) information without sacrificing the power of the analyzes of the one for the other. The semantic-documentary network thus modeled is translated into a weighted graph. The matching mechanism is provided by a Spreading activation mechanism in the graph. This new model allows to respond to queries expressed in the form of key words, concepts or even examples of documents. The propagation algorithm has the merit of preserving the well-tested characteristics of classical information retrieval models while allowing a better consideration of semantic models and their richness.Depending on whether semantics is introduced in the graph or not, this model makes it possible to reproduce a classical IR or provides, in addition, some semantic functionalities. The co-occurrence in the graph then makes it possible to reveal an implicit semantics which improves the precision by solving some semantic ambiguities. The explicit exploitation of the concepts as well as the links of the graph allow the resolution of the problems of synonymy, term mismatch, semantic coverage, etc. These semantic features, as well as the scaling up of the model presented, are validated experimentally on a corpus in the medical field
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Sesboué, Matthias. "Κnοwledge graph-based system fοr technical dοcument retrieval : a deductive reasοning-fοcused explοratiοn". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR17.

Texto completo
Resumen
Ces travaux de recherche industrielle explorent les systèmes fondés sur les graphes de connaissances (KGBS) pour la Recherche d'Informations (RI). Ils ont été menés en partenariat avec l'entreprise TraceParts. Notre cas d'utilisation considère un corpus de documents techniques composé de modèles CAO et de leurs descriptions. Plutôt que d'exploiter les modèles CAO directement, nous nous concentrons sur leurs textes descriptifs. Aujourd'hui, les graphes de connaissances (KG) deviennent omniprésents dans les systèmes d'information et les applications des entreprises. De nombreux domaines de recherche, tels que la RI, ont adopté les KG. Ces artefacts numériques agrègent des données hétérogènes et représentent les connaissances dans un format interprétable par nos ordinateurs. Ce sont des graphes destinés à accumuler et à transmettre les connaissances du monde réel, dont les nœuds représentent des entités d'intérêt et les arêtes les relations entre ces entités. Les projets d'ingénierie et de construction produisent une multitude de documents techniques. Les systèmes de RI sont essentiels pour les industries de ces domaines afin de retrouver efficacement leurs documents. Ces derniers sont complexes, hétérogènes et spécialisés. Bien que ces industries manipulent des documents avec un contenu textuel, ces textes et leurs métadonnées contiennent des concepts et du vocabulaire spécifiques à chaque domaine. Les KG ouverts et les ontologies existantes décrivent des concepts généraux et manquent des connaissances plus fines requises par les applications de RI. Par conséquent, les outils de RI et de gestion des connaissances nécessitent des KG spécifiques à chaque domaine, construits à partir de documents ou étendant des KG existants. Nous explorons tout d'abord les KG, les ontologies et leur relation. Cette revue de littérature nous amène à proposer notre propre définition de KG. Nous considérons les ontologies comme une composante d'un KG et adoptons une perspective fondée sur le Web Sémantique en proposant des technologies issues des normes du Consortium World Wide Web. Nous explorons également la signification théorique et pratique du terme "sémantique" avant de poursuivre notre revue de la littérature avec la RI, en mettant l'accent sur la RI fondée sur les KG. Nous mettons en avant des similitudes et distinctions dans les utilisations des KG. Nos contributions introduisent d'abord une architecture pour les KGBS. Cette architecture organise l'acquisition, la modélisation et la consommation des connaissances autour du KG. Nous démontrons que les standards du Web Sémantique fournissent une approche pour chaque composante de notre architecture. Nous utilisons cette dernière pour organiser la présentation de la suite de notre travail. Chacune de nos contributions aborde respectivement l'acquisition, la modélisation et la consommation des connaissances. Pour nos travaux, nous n'avons pas de KG préconstruit ou d'accès à des experts du domaine pour le construire. Par conséquent, nous abordons l'acquisition de connaissances en concevant notre approche d'apprentissage automatique d'ontologies (OLAF). Nous utilisons OLAF pour construire des chaînes de traitements et apprendre automatiquement des ontologies à partir de texte. Nous implémentons notre approche sous forme d'une bibliothèque Python open-source et construisons deux ontologies pour évaluer la pertinence, la facilité d'utilisation et la modularité de notre outil. Nous nous concentrons ensuite sur la modélisation des connaissances, en présentant notre ontologie de RI dont nous démontrons l'utilisation avec un système de RI fondé sur du raisonnement déductif OWL en temps réel. La démonstration de notre ontologie de RI illustre par une implémentation fondée sur le Web Sémantique de notre définition de KG. Enfin, nous mettons en œuvre à échelle industrielle une approche fondée sur les KG avec des données provenant de la plateforme de contenue CAO www.traceparts.com
These industrial research works explore Knowledge Graph-Based Systems (KGBS) for Information Retrieval (IR). They have been conducted in partnership with the company TraceParts. TraceParts is one of the world's leading Computer-Aided Design (CAD)-content platforms for Engineering, Industrial Equipment, and Machine Design. Hence, our use case considers a technical document corpus composed of Computer-Aided Design (CAD) models and their descriptions. Rather than leveraging the CAD models, we focus on their descriptive texts. Knowledge Graphs (KG) are ubiquitous in today's enterprise information systems and applications. Many academic research fields, such as Information Retrieval (IR), have adopted KGs. These digital knowledge artefacts aggregate heterogeneous data and represent knowledge in a machine-readable format. They are graphs intended to accumulate and convey knowledge of the real world, whose nodes represent entities of interest and whose edges represent relations between these entities. The Architecture Engineering and Construction projects produce a wealth of technical documents. IR systems are critical to these industries to retrieve their complex, heterogeneous, specialised documents quickly. Healthcare is another similar domain with such a need. Though these industries manage documents with some textual content, such text and the metadata contain domain-specific concepts and vocabularies. Open KGs and the existing ontologies often describe concepts that are too high-level and need more fine-grained knowledge required by IR applications. Hence, companies' IR and knowledge management tools require domain-specific KGs built from scratch or extending existing ones. Throughout our literature review, we first explore Knowledge Graphs (KG), ontologies, and how they relate to and derive our unifying KG definition. We consider ontologies one component of a KG and take a Semantic Web perspective, proposing illustrative candidate technologies from the World Wide Web Consortium Semantic Web standards. We also explore the theoretical and practical meaning of the term "semantics". We then explore the literature on IR, focusing on KG-based IR. We break down this review section, first exploring the literature on IR using the term "knowledge graph" and then the one using the term "ontology". We thereby point out some similarities and distinctions in the KG usages. Our contributions first introduce a KGBS architecture relating knowledge acquisition, modelling, and consumption arranged around the KG. We demonstrate that Semantic Web standards provide an approach for each KGBS component. To organise our work, we follow this system architecture; hence, each of our contributions addresses knowledge acquisition, modelling, and consumption, respectively. For our work, we do not have a pre-built KG or access to domain experts to construct it. Hence, we address knowledge acquisition by designing our Ontology Learning Applied Framework (OLAF) collaboratively with some of our research group members. We use OLAF to build pipelines to automatically learn an ontology from text. We implement our framework as an open-source Python library and build two ontologies to assess the OLAF's pertinence, usability, and modularity. We then focus on knowledge modelling, presenting our IR ontology and demonstrating its usage with an OWL reasoning-powered IR system. While most IR systems leverage reasoning in an offline process, our approach explores OWL reasoning at runtime. While demonstrating our IR ontology, we illustrate a Semantic Web-based implementation of our KG definition by pointing out each KG component in our IR ontology demonstration. Finally, we tackle the CAD model retrieval challenge our industrial partner TraceParts faces by implementing a KG-based approach at scale and using real-world data. We illustrate moving from an existing text-based technical document retrieval system to a KG-based one. We leverage real-world TraceParts
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Lully, Vincent. "Vers un meilleur accès aux informations pertinentes à l’aide du Web sémantique : application au domaine du e-tourisme". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUL196.

Texto completo
Resumen
Cette thèse part du constat qu’il y a une infobésité croissante sur le Web. Les deux types d’outils principaux, à savoir le système de recherche et celui de recommandation, qui sont conçus pour nous aider à explorer les données du Web, connaissent plusieurs problématiques dans : (1) l’assistance de la manifestation des besoins d’informations explicites, (2) la sélection des documents pertinents, et (3) la mise en valeur des documents sélectionnés. Nous proposons des approches mobilisant les technologies du Web sémantique afin de pallier à ces problématiques et d’améliorer l’accès aux informations pertinentes. Nous avons notamment proposé : (1) une approche sémantique d’auto-complétion qui aide les utilisateurs à formuler des requêtes de recherche plus longues et plus riches, (2) des approches de recommandation utilisant des liens hiérarchiques et transversaux des graphes de connaissances pour améliorer la pertinence, (3) un framework d’affinité sémantique pour intégrer des données sémantiques et sociales pour parvenir à des recommandations qualitativement équilibrées en termes de pertinence, diversité et nouveauté, (4) des approches sémantiques visant à améliorer la pertinence, l’intelligibilité et la convivialité des explications des recommandations, (5) deux approches de profilage sémantique utilisateur à partir des images, et (6) une approche de sélection des meilleures images pour accompagner les documents recommandés dans les bannières de recommandation. Nous avons implémenté et appliqué nos approches dans le domaine du e-tourisme. Elles ont été dûment évaluées quantitativement avec des jeux de données vérité terrain et qualitativement à travers des études utilisateurs
This thesis starts with the observation that there is an increasing infobesity on the Web. The two main types of tools, namely the search engine and the recommender system, which are designed to help us explore the Web data, have several problems: (1) in helping users express their explicit information needs, (2) in selecting relevant documents, and (3) in valuing the selected documents. We propose several approaches using Semantic Web technologies to remedy these problems and to improve the access to relevant information. We propose particularly: (1) a semantic auto-completion approach which helps users formulate longer and richer search queries, (2) several recommendation approaches using the hierarchical and transversal links in knowledge graphs to improve the relevance of the recommendations, (3) a semantic affinity framework to integrate semantic and social data to yield qualitatively balanced recommendations in terms of relevance, diversity and novelty, (4) several recommendation explanation approaches aiming at improving the relevance, the intelligibility and the user-friendliness, (5) two image user profiling approaches and (6) an approach which selects the best images to accompany the recommended documents in recommendation banners. We implemented and applied our approaches in the e-tourism domain. They have been properly evaluated quantitatively with ground-truth datasets and qualitatively through user studies
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Morey, Mathieu. "Étiquetage grammatical symbolique et interface syntaxe-sémantique des formalismes grammaticaux lexicalisés polarisés". Phd thesis, Université de Lorraine, 2011. http://tel.archives-ouvertes.fr/tel-00640561.

Texto completo
Resumen
Les travaux de cette thèse portent sur l'analyse syntaxique et sémantique de la phrase, en utilisant pour l'analyse syntaxique un formalisme grammatical lexicalisé polarisé et en prenant comme exemple les grammaires d'interaction. Dans les formalismes grammaticaux lexicalisés, les polarités permettent de contrôler explicitement la composition des structures syntaxiques. Nous exploitons d'abord le besoin de composition exprimé par certaines polarités pour définir une notion faible de réduction de grammaire applicable à toute grammaire lexicalisée polarisée. Nous étudions ensuite la première phase de l'analyse syntaxique des formalismes lexicalisés: l'étiquetage grammatical. Nous exploitons là encore le besoin de composition de certaines polarités pour concevoir trois méthodes symboliques de filtrage des étiquetages grammaticaux que nous implantons sur automate. Nous abordons enfin l'interface syntaxe-sémantique des formalismes lexicalisés. Nous montrons comment l'utilisation de la réécriture de graphes comme modèle de calcul permet concrètement d'utiliser des structures syntaxiques riches pour calculer des représentations sémantiques sous-spécifiées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Charhad, Mbarek. "Modèles de documents vidéos basés sur le formalisme des graphes conceptuels pour l'indexation et la recherche par le contenu sémantique". Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10186.

Texto completo
Resumen
Les documents vidéo ont un caractère multimédia qui fait que la recherche par le contenu dans ceux-ci présente un certain nombre de spécificités. Par exemple, un concept donné (personne, objet. . . ) peut être interprété de différentes manières : il peut être vu, il peut être entendu ou il peut être mentionné. Des combinaisons de ces cas peuvent également se produire. Naturellement, ces distinctions sont importantes pour l'utilisateur. Des requêtes impliquant le concept C comme par exemple : " rechercher les segments vidéos montrant une image de C " ou comme : " rechercher les segments vidéos dans lesquels on parle de C " sont susceptibles de produire des réponses tout à fait différentes. Dans le premier cas, on rechercherait C dans le contenu visuel tandis que dans le second, on rechercherait dans le contenu audio un segment dans la transcription duquel C est mentionné. Cette étude s'inscrit dans un contexte de modélisation, indexation et recherche d'information multimédia. Au niveau théorique, notre contribution consiste à la proposition d'un modèle pour la représentation du contenu sémantique des documents vidéo. Ce modèle permet la prise en compte synthétique et intégrée des éléments d'informations issus de chacune des modalités (image, texte, son). L'instanciation de ce modèle est réalisée à l'aide, du formalisme des graphes conceptuels. Le choix de ce formalisme est justifié par son expressivité et son adéquation au contexte d'indexation et de recherche d'information par le contenu. Notre contribution au niveau expérimental consiste à l'implémentation (en partie) du prototype CLOVIS
Ln the case of video, there are a number of specificities due to its multimedia aspect. For instance, a given concept (person, object. . . ) can be present in different ways: it can be seen, it can be heard, it can be talked of, and combinations ofthese representations can also occur. Of course, these distinctions are important for the user. Queries involving a concept C as: "Show me a picture of C" or as "I want to know what C2 has said about C" are likely to give quite different answers. The first one would look for C in the image track while the second would look in the audio track for a segment in which C is the speaker and C is mentioned in the speech. The context of this study is multimedia information modelling, indexing and retrieval. At the theoretical level, our contribution consists in the proposal of a model for the representation of the semantic contents of video documents. This model permits the synthetic and integrated taking into account of, data elements from each media (image, text, audio). The instantiation of this model is implemented using the conceptual graph (CG) formalism. The choice of this formalism is justified by its expressivity and its adequacy with content-based information indexing and retrieval. Our experimental contribution consists in the (partial) implementation of the CLOVIS prototype. We have integrated the proposed model in the video indexing and retrieval system by content in order to evaluate its contributions in terms of effectiveness and precision
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Gillani, Syed. "Semantically-enabled stream processing and complex event processing over RDF graph streams". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES055/document.

Texto completo
Resumen
Résumé en français non fourni par l'auteur
There is a paradigm shift in the nature and processing means of today’s data: data are used to being mostly static and stored in large databases to be queried. Today, with the advent of new applications and means of collecting data, most applications on the Web and in enterprises produce data in a continuous manner under the form of streams. Thus, the users of these applications expect to process a large volume of data with fresh low latency results. This has resulted in the introduction of Data Stream Processing Systems (DSMSs) and a Complex Event Processing (CEP) paradigm – both with distinctive aims: DSMSs are mostly employed to process traditional query operators (mostly stateless), while CEP systems focus on temporal pattern matching (stateful operators) to detect changes in the data that can be thought of as events. In the past decade or so, a number of scalable and performance intensive DSMSs and CEP systems have been proposed. Most of them, however, are based on the relational data models – which begs the question for the support of heterogeneous data sources, i.e., variety of the data. Work in RDF stream processing (RSP) systems partly addresses the challenge of variety by promoting the RDF data model. Nonetheless, challenges like volume and velocity are overlooked by existing approaches. These challenges require customised optimisations which consider RDF as a first class citizen and scale the processof continuous graph pattern matching. To gain insights into these problems, this thesis focuses on developing scalable RDF graph stream processing, and semantically-enabled CEP systems (i.e., Semantic Complex Event Processing, SCEP). In addition to our optimised algorithmic and data structure methodologies, we also contribute to the design of a new query language for SCEP. Our contributions in these two fields are as follows: • RDF Graph Stream Processing. We first propose an RDF graph stream model, where each data item/event within streams is comprised of an RDF graph (a set of RDF triples). Second, we implement customised indexing techniques and data structures to continuously process RDF graph streams in an incremental manner. • Semantic Complex Event Processing. We extend the idea of RDF graph stream processing to enable SCEP over such RDF graph streams, i.e., temporalpattern matching. Our first contribution in this context is to provide a new querylanguage that encompasses the RDF graph stream model and employs a set of expressive temporal operators such as sequencing, kleene-+, negation, optional,conjunction, disjunction and event selection strategies. Based on this, we implement a scalable system that employs a non-deterministic finite automata model to evaluate these operators in an optimised manner. We leverage techniques from diverse fields, such as relational query optimisations, incremental query processing, sensor and social networks in order to solve real-world problems. We have applied our proposed techniques to a wide range of real-world and synthetic datasets to extract the knowledge from RDF structured data in motion. Our experimental evaluations confirm our theoretical insights, and demonstrate the viability of our proposed methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Liu, Jixiong. "Semantic Annotations for Tabular Data Using Embeddings : Application to Datasets Indexing and Table Augmentation". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS529.

Texto completo
Resumen
Avec le développement de l'Open Data, un grand nombre de sources de données sont mises à disposition des communautés (notamment les data scientists et les data analysts). Ces données constituent des sources importantes pour les services numériques sous réserve que les données soient nettoyées, non biaisées, et combinées à une sémantique explicite et compréhensible par les algorithmes afin de favoriser leur exploitation. En particulier, les sources de données structurées (CSV, JSON, XML, etc.) constituent la matière première de nombreux processus de science des données. Cependant, ces données proviennent de différents domaines pour lesquels l'expertise des consommateurs des données peut être limitée (knowledge gap). Ainsi, l'appropriation des données, étape critique pour la création de modèles d'apprentissage automatique de qualité, peut être complexe.Les modèles sémantiques (en particulier, les ontologies) permettent de représenter explicitement le sens des données en spécifiant les concepts et les relations présents dans les données. L'association d'étiquettes sémantiques aux ensembles de données facilite la compréhension et la réutilisation des données en fournissant une documentation sur les données qui peut être facilement utilisée par un non-expert. De plus, l'annotation sémantique ouvre la voie à des modes de recherche qui vont au-delà de simples mots-clés et permettent l'expression de requêtes d'un haut niveau conceptuel sur le contenu des jeux de données mais aussi leur structure tout en surmontant les problèmes d'hétérogénéité syntaxique rencontrés dans les données tabulaires. Cette thèse introduit un pipeline complet pour l'extraction, l'interprétation et les applications de tableaux de données à l'aide de graphes de connaissances. Nous rappelons tout d'abord la définition des tableaux du point de vue de leur interprétation et nous développons des systèmes de collecte et d'extraction de tableaux sur le Web et dans des fichiers locaux. Nous proposons ensuite trois systèmes d'interprétation de tableaux basés sur des règles heuristiques ou sur des modèles de représentation de graphes, afin de relever les défis observés dans la littérature. Enfin, nous présentons et évaluons deux applications d'augmentation des tables tirant parti des annotations sémantiques produites: l'imputation des données et l'augmentation des schémas
With the development of Open Data, a large number of data sources are made available to communities (including data scientists and data analysts). This data is the treasure of digital services as long as data is cleaned, unbiased, as well as combined with explicit and machine-processable semantics in order to foster exploitation. In particular, structured data sources (CSV, JSON, XML, etc.) are the raw material for many data science processes. However, this data derives from different domains for which consumers are not always familiar with (knowledge gap), which complicates their appropriation, while this is a critical step in creating machine learning models. Semantic models (in particular, ontologies) make it possible to explicitly represent the implicit meaning of data by specifying the concepts and relationships present in the data. The provision of semantic labels on datasets facilitates the understanding and reuse of data by providing documentation on the data that can be easily used by a non-expert. Moreover, semantic annotation opens the way to search modes that go beyond simple keywords and allow the use of queries of a high conceptual level on the content of the datasets but also their structure while overcoming the problems of syntactic heterogeneity encountered in tabular data. This thesis introduces a complete pipeline for the extraction, interpretation, and applications of tables in the wild with the help of knowledge graphs. We first refresh the exiting definition of tables from the perspective of table interpretation and develop systems for collecting and extracting tables on the Web and local files. Three table interpretation systems are further proposed based on either heuristic rules or graph representation models facing the challenges observed from the literature. Finally, we introduce and evaluate two table augmentation applications based on semantic annotations, namely data imputation and schema augmentation
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Lisena, Pasquale. "Knowledge-based music recommendation : models, algorithms and exploratory search". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS614.

Texto completo
Resumen
Représenter l'information décrivant la musique est une activité complexe, qui implique différentes sous-tâches. Ce manuscrit de thèse porte principalement sur la musique classique et étudie comment représenter et exploiter ses informations. L'objectif principal est l'étude de stratégies de représentation et de découverte des connaissances appliquées à la musique classique, dans des domaines tels que la production de base de connaissances, la prédiction de métadonnées et les systèmes de recommandation. Nous proposons une architecture pour la gestion des métadonnées de musique à l'aide des technologies du Web Sémantique. Nous introduisons une ontologie spécialisée et un ensemble de vocabulaires contrôlés pour les différents concepts spécifiques à la musique. Ensuite, nous présentons une approche de conversion des données, afin d’aller au-delà de la pratique bibliothécaire actuellement utilisée, en s’appuyant sur des règles de mapping et sur l’interconnexion avec des vocabulaires contrôlés. Enfin, nous montrons comment ces données peuvent être exploitées. En particulier, nous étudions des approches basées sur des plongements calculés sur des métadonnées structurées, des titres et de la musique symbolique pour classer et recommander de la musique. Plusieurs applications de démonstration ont été réalisées pour tester les approches et les ressources précédentes
Representing the information about music is a complex activity that involves different sub-tasks. This thesis manuscript mostly focuses on classical music, researching how to represent and exploit its information. The main goal is the investigation of strategies of knowledge representation and discovery applied to classical music, involving subjects such as Knowledge-Base population, metadata prediction, and recommender systems. We propose a complete workflow for the management of music metadata using Semantic Web technologies. We introduce a specialised ontology and a set of controlled vocabularies for the different concepts specific to music. Then, we present an approach for converting data, in order to go beyond the librarian practice currently in use, relying on mapping rules and interlinking with controlled vocabularies. Finally, we show how these data can be exploited. In particular, we study approaches based on embeddings computed on structured metadata, titles, and symbolic music for ranking and recommending music. Several demo applications have been realised for testing the previous approaches and resources
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Raimbault, Thomas. "Transition de modèles de connaissances : un système de connaissance fondé sur OWL, graphes conceptuels et UML". Phd thesis, Nantes, 2008. https://archive.bu.univ-nantes.fr/pollux/show/show?id=4ef8d797-9884-4506-8973-e5bc095e2459.

Texto completo
Resumen
La thèse soutenue est que l'utilisation conjointe de plusieurs modèles de connaissances pour représenter des connaissances et raisonner permet de modéliser élégamment des connaissances et de résoudre des problèmes complexes. Cette thèse propose des transitions de modèles entre les modèles de connaissances OWL, Graphes Conceptuels et UML. L'originalité de cette thèse réside en la modélisation centralisée de connaissances au sein d'un système de connaissance et en l'action de faire transiter ces connaissances d'un modèle à un autre du système au fur et à mesure des besoins exigés par la modélisation et les raisonnements. L'objectif principal de ces transitions de modèles de connaissances est double. D'une part, il s'agit de bénéficier de manière relativement aisée des différences d'expressivités entre les modèles et ainsi aboutir à un système de connaissance au pouvoir expressif fort. D'autre part, cela permet lors de la conception et l'exploitation d'une modélisation, d'utiliser les modèles qu'on connaît ou les mieux adaptés. Les outils de chaque modèle peuvent ainsi être utilisés sur les connaissances obtenues, offrant une complémentarité d'utilisation de ces modèles
The purpose of this thesis is using multiple knowledge models for representating knowledge and reasoning on this represented knowledge. This thesis proposes transitions between several knowledge models\string: OWL, Conceptual Graphs and UML. The originality of this thesis lies both in the centralized modeling knowledge within a knowledge system and in action to pass this knowledge from one model to another of system as needs required by modeling and reasoning. The main goal of these transitions knowledge models is twofold. On the one hand, it is to benefit from relatively easy using expressiveness of models to obtain as result a strong expressive power. On the other hand, it helps in the design and operation of a modeling, using best knowed models or best suited models. The tools of each model can then be used on represented knowledge, providing complementary use of these models
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Gandon, Fabien. "Graphes RDF et leur Manipulation pour la Gestion de Connaissances". Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00351772.

Texto completo
Resumen
Le premier chapitre montre que nos scénarios d'usages sont issus de problèmes de capitalisation, de gestion et de diffusion de connaissances. Nous étudions donc des mémoires individualisées (rattachées à un utilisateur donné), organisationnelles (rattachées à une organisation, notamment une entreprise) ou plus généralement communautaires (rattachées à une communauté d'intérêt ou de pratique). Nous donnons dans le premier chapitre des contextes d'application de nos travaux que nous utiliserons comme des scénarios motivants pour les chapitres suivants. Nous y définissons aussi notre positionnement en représentation des connaissances, notamment pour ce qui est de la représentation d'une mémoire à base d'ontologies.
Dans le deuxième chapitre, nous rappelons comment les formalismes à base de graphes peuvent être utilisés pour représenter des connaissances avec un degré variable de formalisation en fonction des besoins identifiés dans les scénarios d'application et des traitements à effectuer notamment pour la mise en place de webs sémantiques. Nous identifierons brièvement les caractéristiques de certains de ces formalismes qui sont utilisés dans nos travaux et les opportunités d'extensions qu'ils offrent. Nous synthétiserons aussi une initiative en cours pour factoriser la définition des structures mathématiques partagées par ces formalismes et réutiliser l'algorithmique des traitements communs à ces structures.
Dans le troisième chapitre nous expliquons que l'ontologie offre un support à d'autres types de raisonnement que la dérivation logique. Par exemple, la hiérarchie de notions contenue dans une ontologie peut être vue comme un espace métrique permettant de définir des distances pour comparer la proximité sémantique de deux notions. Nous avons mis en œuvre cette idée dans plusieurs scénarios comme l'allocation distribuée d'annotations, la recherche approchée ou le clustering. Nous résumons dans ce troisième chapitre diverses utilisations que nous avons faites des distances sémantiques et discutons notre position sur ce domaine. Nous donnons les scénarios d'utilisation et les distances utilisées dans un échantillon représentatif de projets que nous avons menés. Pour nous, cette première série d'expériences a permis de démontrer l'intérêt et le potentiel des distances, et aussi de souligner l'importance du travail restant à faire pour identifier et caractériser les familles de distances existantes et leur adéquation respective aux tâches pour lesquelles nos utilisateurs souhaitent être assistés.
Dans le quatrième chapitre, nous rappelons qu'un web sémantique, tel que nous en utilisons dans nos scénarios, qu'il soit public ou sur l'intranet d'une entreprise, repose généralement sur plusieurs serveurs web qui proposent chacun différentes ontologies et différentes bases d'annotations utilisant ces ontologies pour décrire des ressources. Les scénarios d'usage amènent souvent un utilisateur à formuler des requêtes dont les réponses combinent des éléments d'annotation distribués entre plusieurs de ces serveurs.
Ceci demande alors d'être capable :
(1) d'identifier les serveurs susceptibles d'avoir des éléments de réponse ;
(2) d'interroger des serveurs distants sur les éléments qu'ils connaissent sans surcharger le réseau;
(3) de décomposer la requête et router les sous-requêtes vers les serveurs idoines ;
(4) de recomposer les résultats à partir des réponses partielles.
Nous avons, avec le web sémantique, les briques de base d'une architecture distribuée. Le quatrième chapitre résume un certain nombre d'approches que nous avons proposées pour tenir compte de la distribution et gérer des ressources distribuées dans les webs sémantiques que nous concevons.
Les ontologies et les représentations de connaissances sont souvent dans le cœur technique de nos architectures, notamment lorsqu'elles utilisent des représentations formelles. Pour interagir avec le web sémantique et ses applications, le cinquième chapitre rappelle que nous avons besoin d'interfaces qui les rendent intelligibles pour les utilisateurs finaux. Dans nos systèmes d'inférences des éléments de connaissances sont manipulés et combinés, et même si les éléments de départ étaient intelligibles, l'intelligibilité des résultats, elle, n'est pas préservée par ces transformations.
Actuellement, et dans le meilleur des cas, les concepteurs d'interfaces mettent en œuvre des transformations ad hoc des structures de données internes en représentations d'interface en oubliant souvent les capacités de raisonnement que pourraient fournir ces représentations pour construire de telles interfaces. Dans le pire des cas, et encore trop souvent, les structures de représentation normalement internes sont directement mises à nu dans des widgets sans que cela soit justifié et, au lieu d'assister l'interaction, ces représentations alourdissent les interfaces.
Puisqu'elles reçoivent les contributions d'un monde ouvert, les interfaces du web sémantique devront être, au moins en partie, générées dynamiquement et rendues pour chaque structure devant rentrer en contact avec les utilisateurs. Le cinquième et dernier chapitre souligne cette opportunité croissante d'utiliser des systèmes à base d'ontologies dans l'assistance aux interactions avec nos utilisateurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Hossayni, Hicham. "Enabling industrial maintenance knowledge sharing by using knowledge graphs". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS017.

Texto completo
Resumen
Autrefois considérée comme faisant partie des coûts généraux de l'entreprise, la maintenance industrielle est devenue critique pour la continuité de l'activité et une véritable source de données. Malgré les sommes importantes investies par les entreprises dans la fabrication intelligente, les pratiques traditionnelles en maintenance dominent toujours le paysage industriel. Dans cette thèse, nous étudions le partage des connaissances comme une solution potentielle qui peut inverser la tendance et améliorer l'activité de maintenance pour se conformer à l'esprit de l'industrie 4.0. Nous considérons spécifiquement les graphes de connaissances comme un outil permettant de partager les connaissances de maintenance entre les différents acteurs de l'industrie.Dans la première contribution de cette thèse, nous avons mené une étude de terrain à travers une campagne d'entretiens avec des experts aux profils différents et issus de divers domaines industriels. Cela nous a permis de tester l'hypothèse de l'amélioration de l'activité de maintenance via le partage des connaissances, qui est un concept assez nouveau dans de nombreuses industries. Les résultats de cette activité montrent clairement un intérêt réel pour notre approche et révèlent les différents besoins et défis à relever.La deuxième contribution est la conception et le prototype de "SemKoRe"; une solution s'appuyant sur le Web sémantique pour partager les connaissances de maintenance. Elle collecte les données liées aux défaillances de machine, les structure dans un graphe de connaissances et les partage entre tous les clients connectés pour réparer facilement les futures défaillances du même type. Une architecture flexible a été proposée pour couvrir les besoins des différents clients. SemKoRe a reçu l'approbation de plusieurs clients de Schneider implantés dans plusieurs pays et de différents segments.Dans la troisième contribution, nous avons conçu et mis en oeuvre une nouvelle solution pour la détection automatique des données sensibles dans les rapports de maintenance. En effet, les rapports de maintenance peuvent contenir des données confidentielles susceptibles de compromettre ou d'avoir un impact négatif sur l'activité de l'entreprise si elles sont révélées. Cette fonctionnalité est perçue, par les experts du domaine comme un point essentiel et critique pour SemKoRe. Elle permet d'éviter la divulgation de données sensibles lors de l'activité de partage des connaissances. Dans cette contribution, nous nous sommes appuyés sur le web sémantique et le traitement du langage naturel pour développer des modèles personnalisés pour la détection de données sensibles. La construction et l'apprentissage de tels modèles nécessitent une quantité considérable de données. Par conséquent, nous avons mis en place plusieurs services pour la collecte collaborative de données, l'annotation de texte et la construction de corpus. Aussi, une architecture et un workflow simplifié ont été proposés pour la génération et le déploiement de modèles de détection de données sensibles personnalisables sur les passerelles de périphérie.En plus de ces contributions, nous avons travaillé sur différentes fonctionnalités connexes à forte valeur ajoutée pour le projet SemKoRe, et qui ont abouti à différents brevets. Par exemple, nous avons développé et breveté une nouvelle méthode pour interagir avec les données de séries chronologiques à l'aide de critères sémantiques. Elle combine l'utilisation d'ontologies et de bases de données de séries chronologiques pour offrir un ensemble utile de fonctionnalités même sur des passerelles périphériques aux ressources limitées. Nous avons également conçu un nouvel outil qui aide les développeurs à interagir facilement avec des graphes de connaissances avec peu ou pas de connaissance des technologies du Web sémantique. Cette solution a été brevetée et s'avère utile pour d'autres projets basés sur des ontologies
Formerly considered as part of general enterprise costs, industrial maintenance has become critical for business continuity and a real source of data. Despite the heavy investments made by companies in smart manufacturing, traditional maintenance practices still dominate the industrial landscape. In this Ph.D., we investigate maintenance knowledge sharing as a potential solution that can invert the trend and enhance the maintenance activity to comply with the Industry 4.0 spirit. We specifically consider the knowledge graphs as an enabler to share the maintenance knowledge among the different industry players.In the first contribution of this thesis, we conducted a field study through a campaign of interviews with different experts with different profiles and from different industry domains. This allowed us to test the hypothesis of improving the maintenance activity via knowledge sharing which is quite a novel concept in many industries. The results of this activity clearly show a real interest in our approach and reveal the different requirements and challenges that need to be addressed.The second contribution is the concept, design, and prototype of "SemKoRe" which is a vendor-agnostic solution relying on Semantic Web technologies to share the maintenance knowledge. It gathers all machine failure-related data in the knowledge graph and shares it among all connected customers to easily solve future failures of the same type. A flexible architecture was proposed to cover the varied needs of the different customers. SemKoRe received approval of several Schneider clients located in several countries and from various segments.In the third contribution, we designed and implemented a novel solution for the automatic detection of sensitive data in maintenance reports. In fact, maintenance reports may contain some confidential data that can compromise or negatively impact the company's activity if revealed. This feature came up as the make or break point for SemKoRe for the interviewed domain experts. It allows avoiding sensitive data disclosure during the knowledge-sharing activity. In this contribution, we relied on semantic web and natural language processing techniques to develop custom models for sensitive data detection. The construction and training of such models require a considerable amount of data. Therefore, we implemented several services for collaborative data collection, text annotation, and corpus construction. Also, an architecture and a simplified workflow were proposed for the generation and deployment of customizable sensitive data detection models on edge gateways.In addition to these contributions, we worked on different peripheral features with a strong value for the SemKoRe project, and that has resulted in different patents. For instance, we prototyped and patented a novel method to query time series data using semantic criteria. It combines the use of ontologies and time-series databases to offer a useful set of querying capabilities even on resource-constrained edge gateways. We also designed a novel tool that helps software developers to easily interact with knowledge graphs with little or no knowledge of semantic web technologies. This solution has been patented and turns out to be useful for other ontology-based projects
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Sourty, Raphael. "Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Texto completo
Resumen
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Raimbault, Thomas. "Transition de modèles de connaissances - Un système de connaissance fondé sur OWL, Graphes conceptuels et UML". Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00482664.

Texto completo
Resumen
La thèse soutenue est que l'utilisation conjointe de plusieurs modèles de connaissances pour représenter des connaissances et raisonner permet élégamment de modéliser des connaissances et de résoudre des problèmes complexes. Cette thèse propose des transitions de modèles entre les modèles de connaissances OWL, Graphes Conceptuels et UML. L'originalité de cette thèse réside en la modélisation centralisée de connaissances au sein d'un système de connaissance et en l'action de faire transiter ces connaissances d'un modèle à un autre du système au fur et à mesure des besoins exigés par la modélisation et les raisonnements. L'objectif principal de ces transitions de modèles de connaissances est double. D'une part, il s'agit de bénéficier de manière relativement aisée des différences d'expressivités entre les modèles et ainsi aboutir à un système de connaissance au pouvoir expressif fort. D'autre part, cela permet lors de la conception et l'exploitation d'une modélisation, d'utiliser les modèles qu'on connaît ou les mieux adaptés. Les outils de chaque modèle peuvent ainsi être utilisés sur les connaissances obtenues, offrant une complémentarité d'utilisation de ces modèles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Nel, François. "Suivi de mouvements informationnels : construction, modélisation et simulation de graphes de citations, application à la détection de buzz". Paris 6, 2011. http://www.theses.fr/2011PA066541.

Texto completo
Resumen
Cette thèse a pour contexte général l'étude des mouvements informationnels sur le Web. La démarche retenue se base sur l'étude du graphe des citations entre sites d'information sur le Web selon trois axes principaux : la construction, l'analyse et la génération d'un graphe de citations. Pour construire le graphe de citations, nous proposons une méthode de crawling adaptée à l'extraction de corpus de relations de citations entre sources Web. La stratégie choisie se base sur une extraction exhaustive des publications des sources et un nettoyage des pages afin d'en extraire les liens hypertextes utiles. L'analyse du graphe extrait consiste en une méthode de caractérisation des noeuds du graphe, considérés comme des sources d'information ayant des comportements de publication distincts et nous permet d'en identifier quatre. L'objectif de nos travaux sur la génération de graphes de citations est d'obtenir des graphes réalistes, c'est-à-dire capables de reproduire les comportements de publication identifiés sur les données réelles. Ainsi, nous proposons un modèle suffisamment flexible et adaptable en imitant au mieux le processus de publication réel d'un article sur un site et l'implémentons en un outil de simulation. Enfin, nous proposons une mise en application de nos travaux dans le cadre d'une étude sur la détection de buzz. Nous étudions le concept de buzz en proposant une définition sur laquelle nous basons plusieurs formalisations adaptées aux données disponibles. L'interprétation des expérimentations effectuées nous conduit à attribuer les méthodes de détection proposées à des cas d'application spécifiques selon la sémantique qui peut leur être attribuée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Paris, Pierre-Henri. "Identity in RDF knowledge graphs : propagation of properties between contextually identical entities". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS132.

Texto completo
Resumen
En raison du grand nombre de graphes de connaissances et, surtout, de leurs interconnexions encore plus nombreuses à l'aide de la propriété owl:sameas, il est devenu de plus en plus évident que cette propriété est souvent mal utilisée. En effet, les entités liées par la propriété owl:sameas doivent être identiques dans tous les contextes possibles et imaginables. Dans les faits, ceci n'est pas toujours le cas et induit une détérioration de la qualité des données. L'identité doit être considérée comme étant dépendante d'un contexte. Nous avons donc proposé une étude à large échelle sur la présence de la sémantique dans les graphes de connaissances, puisque certaines caractéristiques sémantiques permettent justement de déduire des liens d'identités. Cette étude nous a amenés naturellement à construire une ontologie permettant de donner la teneur en sémantique d'un graphe de connaissances. Nous avons aussi proposé une approche de liage de données fondée à la fois sur la logique permise par les définitions sémantiques, et à la fois sur la prédominance de certaines propriétés pour caractériser la relation d'identité entre deux entités. Nous nous sommes aussi intéressés à la complétude et avons proposé une approche permettant de générer un schéma conceptuel afin de mesurer la complétude d'une entité. Pour finir, à l'aide des travaux précédents, nous avons proposé une approche fondée sur les plongements de phrases permettant de calculer les propriétés pouvant être propagées dans un contexte précis. Ceci permet l'expansion de requêtes SPARQL et, in fine, d'augmenter la complétude des résultats de la requête
Due to a large number of knowledge graphs and, more importantly, their even more numerous interconnections using the owl:sameas property, it has become increasingly evident that this property is often misused. Indeed, the entities linked by the owl:sameas property must be identical in all possible and imaginable contexts. This is not always the case and leads to a deterioration of data quality. Identity must be considered as context-dependent. We have, therefore, proposed a large-scale study on the presence of semantics in knowledge graphs since specific semantic characteristics allow us to deduce identity links. This study naturally led us to build an ontology allowing us to describe the semantic content of a knowledge graph. We also proposed a interlinking approach based both on the logic allowed by semantic definitions, and on the predominance of certain properties to characterize the identity relationship between two entities. We looked at completeness and proposed an approach to generate a conceptual schema to measure the completeness of an entity. Finally, using our previous work, we proposed an approach based on sentence embedding to compute the properties that can be propagated in a specific context. Hence, the propagation framework allows the expansion of SPARQL queries and, ultimately, to increase the completeness of query results
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Ayed, Rihab. "Recherche d’information agrégative dans des bases de graphes distribuées". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1305.

Texto completo
Resumen
Le sujet de cette thèse s’inscrit dans le cadre général de la Recherche d’Information et la gestion des données massives et distribuées. Notre problématique concerne l’évaluation et l’optimisation de requêtes agrégatives (Aggregated Search). La Recherche d’Information Agrégative est un nouveau paradigme permettant l’accès à l’information massivement distribuée. Elle a pour but de retourner à l’utilisateur d’un système de recherche d’information des objets résultats qui sont riches et porteurs de connaissances. Ces objets n’existent pas en tant que tels dans les sources. Ils sont construits par assemblage (ou configuration ou agrégation) de fragments issus de diffèrentes sources. Les sources peuvent être non spécifiées dans l’expression de la requête mais découvertes dynamiquement lors de la recherche. Nous nous intéressons particulièrement à l’exploitation des dépendances de données pour optimiser les accès aux sources distribuées. Dans ce cadre, nous proposons une approche pour l’un des sous processus de systèmes de RIA, principalement le processus d’indexation/organisation des documents. Nous considérons dans cette thèse, les systèmes de recherche d’information orientés graphes (graphes RDF). Utilisant les relations dans les graphes, notre travail s’inscrit dans le cadre de la recherche d’information agrégative relationnelle (Relational Aggregated Search) où les relations sont exploitées pour agréger des fragments d’information. Nous proposons d’optimiser l’accès aux sources d’information dans un système de recherche d’information agrégative. Ces sources contiennent des fragments d’information répondant partiellement à la requête. L’objectif est de minimiser le nombre de sources interrogées pour chaque fragment de la requête, ainsi que de maximiser les opérations d’agrégations de fragments dans une même source. Nous proposons d’effectuer cela en réorganisant la/les base(s) de graphes dans plusieurs clusters d’information dédiés aux requêtes agrégatives. Ces clusters sont obtenus à partir d’une approche de clustering sémantique ou structurel des prédicats des graphes RDF. Pour le clustering structurel, nous utilisons les algorithmes d’extraction de sous-graphes fréquents et dans ce cadre nous élaborons une étude comparative des performances de ces algorithmes. Pour le clustering sémantique, nous utilisons les métadonnées descriptives des prédicats dont nous appliquons des outils de similarité textuelle sémantique. Nous définissons une approche de décomposition de requêtes basée essentiellement sur le clustering choisi
In this research, we are interested in investigating issues related to query evaluation and optimization in the framework of aggregated search. Aggregated search is a new paradigm to access massively distributed information. It aims to produce answers to queries by combining fragments of information from different sources. The queries search for objects (documents) that do not exist as such in the targeted sources, but are built from fragments extracted from the different sources. The sources might not be specified in the query expression, they are dynamically discovered at runtime. In our work, we consider data dependencies to propose a framework for optimizing query evaluation over distributed graph-oriented data sources. For this purpose, we propose an approach for the document indexing/orgranizing process of aggregated search systems. We consider information retrieval systems that are graph oriented (RDF graphs). Using graph relationships, our work is within relational aggregated search where relationships are used to aggregate fragments of information. Our goal is to optimize the access to source of information in a aggregated search system. These sources contain fragments of information that are relevant partially for the query. We aim at minimizing the number of sources to ask, also at maximizing the aggregation operations within a same source. For this, we propose to reorganize the graph database(s) in partitions, dedicated to aggregated queries. We use a semantic or strucutral clustering of RDF predicates. For structural clustering, we propose to use frequent subgraph mining algorithms, we performed for this, a comparative study of their performances. For semantic clustering, we use the descriptive metadata of RDF predicates and apply semantic textual similarity methods to calculate their relatedness. Following the clustering, we define query decomposing rules based on the semantic/structural aspects of RDF predicates
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Ayats, H. Ambre. "Construction de graphes de connaissances à partir de textes avec une intelligence artificielle explicable et centrée-utilisateur·ice". Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS095.

Texto completo
Resumen
Avec les progrès récents dans le domaine de l'intelligence artificielle, la question du contrôle humain est devenu centrale. Aujourd'hui, cela passe à la fois par des recherches en explicabilité et des systèmes centrés autour de l'interaction avec l'utilisateur·ice. De plus, avec l'expansion du web sémantique et des méthodes de traitement automatique du langage naturelle, la tâche de construction de graphes de connaissances à partir de textes est devenu un enjeu important. Cette thèse présente un système centré-utilisateur·ice pour la construction de graphes de connaissances à partir de textes. Cette thèse présente plusieurs contributions. Tout d'abord, nous introduisons un workflow centré-utilisateur·ice pour la tâche sus-citée, ayant la propriété d'automatiser progressivement les actions de l'utilisateur·ice tout en lui laissant un contrôle fin du résultat. Ensuite, nous présentons nos apports dans le domaine de l'analyse de concepts formels, utilisés afin de concevoir un module d'apprentissage fainéant et explicable pour la tâche de classification de relations. Enfin, nous présentons nos apports dans le domaine de l'extraction de relations, et comment ces apports s'inscrivent dans le workflow présenté précédemment
With recent advances in artificial intelligence, the question of human control has become central. Today, this involves both research into explainability and designs centered around interaction with the user. What's more, with the expansion of the semantic web and automatic natural language processing methods, the task of constructing knowledge graphs from texts has become an important issue. This thesis presents a user-centered system for the construction of knowledge graphs from texts. This thesis presents several contributions. First, we introduce a user-centered workflow for the aforementioned task, having the property of progressively automating the user's actions while leaving them a fine-grained control over the outcome. Next, we present our contributions in the field of formal concept analysis, used to design an explainable instance-based learning module for relation classification. Finally, we present our contributions in the field of relation extraction, and how these fit into the presented workflow
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Baalbaki, Hussein. "Designing Big Data Frameworks for Quality-of-Data Controlling in Large-Scale Knowledge Graphs". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS697.

Texto completo
Resumen
Les Knowledge Graphs (KG) sont la représentation la plus utilisée d'informations structurées sur un domaine particulier, composée de milliards de faits sous la forme d'entités (nœuds) et de relations (bords) entre eux. De plus, les informations de type sémantique des entités sont également contenues dans les KG. Le nombre de KG n'a cessé d'augmenter au cours des 20 dernières années dans divers domaines, notamment le gouvernement, la recherche universitaire, les domaines biomédicaux, etc. Les applications basées sur l'apprentissage automatique qui utilisent les KG incluent la liaison d'entités, les systèmes de questions-réponses, les systèmes de recommandation, etc. Les Open KG sont généralement produits de manière heuristique, automatiquement à partir de diverses sources, notamment du texte, des photos et d'autres ressources, ou sont sélectionnés manuellement. Cependant, ces KG sont souvent incomplètes, c'est-à-dire qu'il existe des liens manquants entre les entités et des liens manquants entre les entités et leurs types d'entités correspondants. Dans cette thèse, nous abordons l’un des problèmes les plus difficiles auxquels est confronté le Knowledge Graph Completion (KGC), à savoir la prédiction de liens. Prédiction générale des liens en KG qui inclut la prédiction de la tête et de la queue, triple classification. Ces dernières années, les KGE ont été formés pour représenter les entités et les relations du KG dans un espace vectoriel de faible dimension préservant la structure du graphe. Dans la plupart des travaux publiés tels que les modèles translationnels, les modèles de réseaux neuronaux et autres, la triple information est utilisée pour générer la représentation latente des entités et des relations. Dans cette thèse, plusieurs méthodes ont été proposées pour KGC et leur efficacité est démontrée empiriquement dans cette thèse. Tout d’abord, un nouveau modèle d’intégration KG, TransModE, est proposé pour la prédiction de liens. TransModE projette les informations contextuelles des entités dans un espace modulaire, tout en considérant la relation comme vecteur de transition qui guide l'entité tête vers l'entité queue. Deuxièmement, nous avons travaillé sur la construction d'un modèle KGE simple et de faible complexité, tout en préservant son efficacité. KEMA est un nouveau modèle KGE parmi les modèles KGE les plus bas en termes de complexité, tout en obtenant des résultats prometteurs. Enfin, KEMA++ est proposé comme une mise à niveau de KEMA pour prédire les triplets manquants dans les KG en utilisant l'opération arithmétique des produits dans un espace modulaire. Les expériences approfondies et les études d'ablation montrent l'efficacité du modèle proposé, qui rivalise avec les modèles de pointe actuels et établit de nouvelles références pour KGC
Knowledge Graphs (KGs) are the most used representation of structured information about a particular domain consisting of billions of facts in the form of entities (nodes) and relations (edges) between them. Additionally, the semantic type information of the entities is also contained in the KGs. The number of KGs has steadily increased over the past 20 years in a variety of fields, including government, academic research, the biomedical fields, etc. Applications based on machine learning that use KGs include entity linking, question-answering systems, recommender systems, etc. Open KGs are typically produced heuristically, automatically from a variety of sources, including text, photos, and other resources, or are hand-curated. However, these KGs are often incomplete, i.e., there are missing links between the entities and missing links between the entities and their corresponding entity types. In this thesis, we are addressing one of the most challenging issues facing Knowledge Graph Completion (KGC) which is link prediction. General Link Prediction in KGs that include head and tail prediction, triple classification. In recent years, KGE have been trained to represent the entities and relations in the KG in a low-dimensional vector space preserving the graph structure. In most published works such as the translational models, neural network models and others, the triple information is used to generate the latent representation of the entities and relations. In this dissertation, several methods have been proposed for KGC and their effectiveness is shown empirically in this thesis. Firstly, a novel KG embedding model TransModE is proposed for Link Prediction. TransModE projects the contextual information of the entities to modular space, while considering the relation as transition vector that guide the head to the tail entity. Secondly, we worked on building a simple low complexity KGE model, meanwhile preserving its efficiency. KEMA is a novel KGE model among the lowest KGE models in terms of complexity, meanwhile it obtains promising results. Finally, KEMA++ is proposed as an upgrade of KEMA to predict the missing triples in KGs using product arithmetic operation in modular space. The extensive experiments and ablation studies show efficiency of the proposed model, which compete the current state of the art models and set new baselines for KGC. The proposed models establish new way in solving KGC problem other than transitional, neural network, or tensor factorization based approaches. The promising results and observations open up interesting scopes for future research involving exploiting the proposed models in domain-specific KGs such as scholarly data, biomedical data, etc. Furthermore, the link prediction model can be exploited as a base model for the entity alignment task as it considers the neighborhood information of the entities
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Mecharnia, Thamer. "Approches sémantiques pour la prédiction de présence d'amiante dans les bâtiments : une approche probabiliste et une approche à base de règles". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG036.

Texto completo
Resumen
De nos jours, les Graphes de Connaissances sont utilisés pour représenter toutes sortes de données et ils constituent des ressources évolutives, interopérables et exploitables par des outils d’aide à la décision. Le Centre Scientifique et Technique du Bâtiment (CSTB) a été sollicité pour développer un outil d'aide à l'identification des matériaux contenant de l'amiante dans les bâtiments. Dans ce contexte, nous avons créé et peuplé l'ontologie ASBESTOS qui permet la représentation des données des bâtiments et les résultats des diagnostics réalisés en vue de détecter la présence d’amiante dans les produits utilisés. Nous nous sommes ensuite basés sur ce graphe de connaissance pour développer deux approches qui permettent de prédire la présence d’amiante dans les produits en l’absence de la référence du produit commercialisé effectivement utilisé.La première approche, nommée approche hybride, se base sur des ressources externes décrivant les périodes où les produits commercialisés sont amiantés pour calculer une probabilité d’existence d’amiante dans un composant du bâtiment. Cette approche traite les conflits entre les ressources externes, et l’incomplétude des données répertoriées en appliquant une approche de fusion pessimiste qui ajuste les probabilités calculées en utilisant un sous-ensemble de diagnostiques.La deuxième approche, nommée CRA-Miner, s’inspire de méthodes de programmation logique inductive (PLI) pour découvrir des règles à partir du graphe de connaissances décrivant les bâtiments et les diagnostics d'amiante. La référence des produits spécifiques utilisés lors de la construction n'étant jamais spécifiée, CRA-Miner considère les données temporelles, la sémantique de l'ontologie ASBESTOS, les types de produits et les informations contextuelles telles que les relations partie-tout pour découvrir un ensemble de règles qui pourront être utilisées pour prédire la présence d'amiante dans les éléments de construction.L’évaluation des deux approches menées sur l'ontologie ASBESTOS peuplée avec les données fournies par le CSTB montrent que les résultats obtenus, en particulier quand les deux approches sont combinées, sont tout à fait prometteurs
Nowadays, Knowledge Graphs are used to represent all kinds of data and they constitute scalable and interoperable resources that can be used by decision support tools. The Scientific and Technical Center for Building (CSTB) was asked to develop a tool to help identify materials containing asbestos in buildings. In this context, we have created and populated the ASBESTOS ontology which allows the representation of building data and the results of diagnostics carried out in order to detect the presence of asbestos in the used products. We then relied on this knowledge graph to develop two approaches which make it possible to predict the presence of asbestos in products in the absence of the reference of the marketed product actually used.The first approach, called the hybrid approach, is based on external resources describing the periods when the marketed products are asbestos-containing to calculate the probability of the existence of asbestos in a building component. This approach addresses conflicts between external resources, and incompleteness of listed data by applying a pessimistic fusion approach that adjusts the calculated probabilities using a subset of diagnostics.The second approach, called CRA-Miner, is inspired by inductive logic programming (ILP) methods to discover rules from the knowledge graph describing buildings and asbestos diagnoses. Since the reference of specific products used during construction is never specified, CRA-Miner considers temporal data, ASBESTOS ontology semantics, product types and contextual information such as part-of relations to discover a set of rules that can be used to predict the presence of asbestos in construction elements.The evaluation of the two approaches carried out on the ASBESTOS ontology populated with the data provided by the CSTB show that the results obtained, in particular when the two approaches are combined, are quite promising
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Ticona, Herrera Regina Paola. "Towards RDF normalization". Thesis, Pau, 2016. http://www.theses.fr/2016PAUU3015/document.

Texto completo
Resumen
Depuis ces dernières décennies, des millions d'internautes produisent et échangent des données sur le Web. Ces informations peuvent être structurées, semi-structurées et/ou non-structurées, tels que les blogs, les commentaires, les pages Web, les contenus multimédias, etc. Afin de faciliter la publication ainsi que l'échange de données, le World Wide Web Consortium (ou W3C) a défini en 1999 le standard RDF. Ce standard est un modèle qui permet notamment de structurer une information sous la forme d'un réseau de données dans lequel il est possible d'y attacher des descriptions sémantiques. Ce modèle permet donc d'améliorer l'interopérabilité entre différentes applications exploitant des données diverses et variées présentes sur le Web.Actuellement, une grande quantité de descriptions RDF est disponible en ligne, notamment grâce à des projets de recherche qui traitent du Web de données liées, comme par exemple DBpedia et LinkedGeoData. De plus, de nombreux fournisseurs de données ont adopté les technologies issues de cette communauté du Web de données en partageant, connectant, enrichissant et publiant leurs informations à l'aide du standard RDF, comme les gouvernements (France, Canada, Grande-Bretagne, etc.), les universités (par exemple Open University) ainsi que les entreprises (BBC, CNN, etc.). Il en résulte que de nombreux acteurs actuels (particuliers ou organisations) produisent des quantités gigantesques de descriptions RDF qui sont échangées selon différents formats (RDF/XML, Turtle, N-Triple, etc.). Néanmoins, ces descriptions RDF sont souvent verbeuses et peuvent également contenir de la redondance d'information. Ceci peut concerner à la fois leur structure ou bien leur sérialisation (ou le format) qui en plus souffre de multiples variations d'écritures possibles au sein d'un même format. Tous ces problèmes induisent des pertes de performance pour le stockage, le traitement ou encore le chargement de ce type de descriptions. Dans cette thèse, nous proposons de nettoyer les descriptions RDF en éliminant les données redondantes ou inutiles. Ce processus est nommé « normalisation » de descriptions RDF et il est une étape essentielle pour de nombreuses applications, telles que la similarité entre descriptions, l'alignement, l'intégration, le traitement des versions, la classification, l'échantillonnage, etc. Pour ce faire, nous proposons une approche intitulée R2NR qui à partir de différentes descriptions relatives à une même information produise une et une seule description normalisée qui est optimisée en fonction de multiples paramètres liés à une application cible. Notre approche est illustrée en décrivant plusieurs cas d'étude (simple pour la compréhension mais aussi plus réaliste pour montrer le passage à l'échelle) nécessitant l'étape de normalisation. La contribution de cette thèse peut être synthétisée selon les points suivants :i. Produire une description RDF normalisée (en sortie) qui préserve les informations d'une description source (en entrée),ii. Éliminer les redondances et optimiser l'encodage d'une description normalisée,iii. Engendrer une description RDF optimisée en fonction d'une application cible (chargement rapide, stockage optimisée...),iv. Définir de manière complète et formelle le processus de normalisation à l'aide de fonctions, d'opérateurs, de règles et de propriétés bien fondées, etc.v. Fournir un prototype RDF2NormRDF (avec deux versions : en ligne et hors ligne) permettant de tester et de valider l'efficacité de notre approche.Afin de valider notre proposition, le prototype RDF2NormRDF a été utilisé avec une batterie de tests. Nos résultats expérimentaux ont montré des mesures très encourageantes par rapport aux approches existantes, notamment vis-à-vis du temps de chargement ou bien du stockage d'une description normalisée, tout en préservant le maximum d'informations
Over the past three decades, millions of people have been producing and sharing information on the Web, this information can be structured, semi-structured, and/or non-structured such as blogs, comments, Web pages, and multimedia data, etc., which require a formal description to help their publication and/or exchange on the Web. To help address this problem, the Word Wide Web Consortium (or W3C) introduced in 1999 the RDF standard as a data model designed to standardize the definition and use of metadata, in order to better describe and handle data semantics, thus improving interoperability, and scalability, and promoting the deployment of new Web applications. Currently, billions of RDF descriptions are available on the Web through the Linked Open Data cloud projects (e.g., DBpedia and LinkedGeoData). Also, several data providers have adopted the principles and practices of the Linked Data to share, connect, enrich and publish their information using the RDF standard, e.g., Governments (e.g., Canada Government), universities (e.g., Open University) and companies (e.g., BBC and CNN). As a result, both individuals and organizations are increasingly producing huge collections of RDF descriptions and exchanging them through different serialization formats (e.g., RDF/XML, Turtle, N-Triple, etc.). However, many available RDF descriptions (i.e., graphs and serializations) are noisy in terms of structure, syntax, and semantics, and thus may present problems when exploiting them (e.g., more storage, processing time, and loading time). In this study, we propose to clean RDF descriptions of redundancies and unused information, which we consider to be an essential and required stepping stone toward performing advanced RDF processing as well as the development of RDF databases and related applications (e.g., similarity computation, mapping, alignment, integration, versioning, clustering, and classification, etc.). For that purpose, we have defined a framework entitled R2NR which normalizes different RDF descriptions pertaining to the same information into one normalized representation, which can then be tuned both at the graph level and at the serialization level, depending on the target application and user requirements. We illustrate this approach by introducing use cases (real and synthetics) that need to be normalized.The contributions of the thesis can be summarized as follows:i. Producing a normalized (output) RDF representation that preserves all the information in the source (input) RDF descriptions,ii. Eliminating redundancies and disparities in the normalized RDF descriptions, both at the logical (graph) and physical (serialization) levels,iii. Computing a RDF serialization output adapted w.r.t. the target application requirements (faster loading, better storage, etc.),iv. Providing a mathematical formalization of the normalization process with dedicated normalization functions, operators, and rules with provable properties, andv. Providing a prototype tool called RDF2NormRDF (desktop and online versions) in order to test and to evaluate the approach's efficiency.In order to validate our framework, the prototype RDF2NormRDF has been tested through extensive experimentations. Experimental results are satisfactory show significant improvements over existing approaches, namely regarding loading time and file size, while preserving all the information from the original description
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Bongiovanni, Francesco. "Design, formalization and implementation of overlay networks : application to RDF data storage". Nice, 2012. http://www.theses.fr/2012NICE4021.

Texto completo
Resumen
Les réseaux de recouvrement structurés sont une nouvelle classe de systèmes Pair-à-pair (P2P), qui sont utilisés pour des applications à grande échelle telles que le partage de fichiers, diffusion de l’information ; le stockage et la récupération des différentes ressources… Beaucoup de ces réseaux coexistent sur le Web mais ne coopèrent pas. Afin de promouvoir la coopération, nous proposons deux protocoles, Babelchord et Synapse, dont les objectifs sont de permettre l’interconnexion de réseaux de recouvrement structurés et hétérogènes grâce à des méta-protocoles. Babelchord vise à regrouper les petits réseaux de recouvrement structurés d’une manière non structurée , tandis que Synapse généralise ce concept et prévoit des mécanismes souples reposant sur des nœuds co-localisés, à savoir des nœuds qui appartiennent à plusieurs réseaux en même temps. Nous fournissons les algorithmes derrière ces deux protocoles, ainsi que les résultats des simulations montrant leurs comportements dans le contexte de recherche d’information. Nous avons également développé et expérimenté un prototype de JSynapse sur la plate-forme Grid’50000, confirmant les résultats de simulation obtenus. Une nouvelle génération de ces réseaux fut créée afin de stocker et de récupérer des données sémantiques dans des contextes à larges échelles. En effet, la communauté du Web sémantique a besoin de solutions capables de stocker et récupérer des données RDF, le modèle de données au centre du Web sémantique, passant à l’échelle. La première génération de ces systèmes est monolithique et fournit un support limité pour les requêtes expressives. Nous proposons la conception et l’implémentation d’un système modulaire basé sur du P2P afin de répondre à ces besoins. Nous l’avons construit avec RDF à l’esprit et avons utilisé une infrastructure à trois dimensions, reflétant la nature d’un triplet RDF. Nous avons également fait des choix de design qui permettent de préserver la localité des données mais qui soulèvent des challenges techniques intéressants. Notre conception modulaire réduit le couplage entre les composants formant l’infrastructure et peuvent donc être inter-changé avec d ‘autres. Nous avons expérimenté notre implémentation sur Grid’5000 et présentons les résultats de micro-benchmarks. Enfin, nous nous sommes intéressés de plus près aux performances de ces réseaux. En effet, ils ont une topologie géométrique spécifique qui peut être exploitée de manière à augmenter les performances des applications tournant au-dessus. A cet effet, nous proposons un algorithme de diffusion pour CAN qui est efficace en termes de messages échangés dans le réseau. Cet algorithme a été mis au point en réponse aux résultats trouvés au cours des expériences de notre infrastructure de stockage de données RDF. En parallèle de cet algorithme, nous proposons également un cadre de raisonnement, développé avec l’assistant de preuve Isabelle/HOL, afin de prouver des propriétés d’exactitudes des algorithmes de diffusion pour des réseaux à la CAN. Nous nous sommes concentrés, sur l’ensemble minimal d’abstractions nécessaires afin de concevoir des algorithmes de diffusion efficaces corrects par construction au-dessus de réseaux comme CAN
Structured Overlay Networks (SONs) are a new class of Peer-to-Peer (P2P) systems which are widely used for large scale applications such as file sharing , information dissemination, storage and retrieval of different resources… Many different SONs co-exist on the Web yet they do not cooperate with each other. In order to promote cooperation, we propose two protocols, Babelchord and Synapse, whose goals are to enable the inter-connection of structured and heterogeneous overlays networks through meta-protocols. Babelchord aims to aggregate small structured overlay networks in an unstructured fashion while Synapse generalizes this concept and provides flexible mechanisms relying on co-located nodes, i. E. Nodes which belong to multiple overlays at the same time. We provides the algorithms behind both protocols, as well as simulations results showing their behaviours in the context of information retrieval. We have also implemented and experimented a prototype of JSynapse on the Grid’5000 platform, confirming the obtained simulation results and giving a proof of concept of our protocol. A novel generation of SONs was created in order to store and retrieve semantic data in large scale settings. The Semantic Web community is in need for scalable solutions which are able to store and retrieve RDF data, the core data model of the Semantic Web. The first generation of these systems is too monolithic and provided limited support for expressive queries. We propose the design and implementation of a new modular P2P-based system for these purposes. We build the system with RDF in mind and used a three-dimensional CAN overlay network, mimicking the nature of an RDF triple. We made specific design choices which preserve data locality but raises interesting technical challenges. Our modular design reduces the coupling between its underlying components, allowing them to be inter-changed with others. We also ran some micro-benchmarks on Grid’50000 which will be discussed. SONs have a specific geometrical topology which could be leveraged in order to increase the overall performance of the system. In this regard we propose a new broadcast efficient algorithm for CAN, developed in response to the results found from running the experiments in the RDF data store we have built, which used too many messages. Along this algorithm, we also propose a reasoning framework, developed with the Isabelle/HOL proof assistant, for proving correctness properties of dissemination algorithms for CAN-like P2P-systems. We focus on providing the minimal set of abstractions needed to devise efficient correct-by-construction dissemination algorithms on top of such overlay
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Cherifi, Chantal. "Classification et Composition de Services Web : Une Perspective Réseaux Complexes". Phd thesis, Université Pascal Paoli, 2011. http://tel.archives-ouvertes.fr/tel-00652852.

Texto completo
Resumen
Les services Web sont des briques de bases logicielles s‟affranchissant de toute contrainte de compatibilité logicielle ou matérielle. Ils sont mis en oeuvre dans une architecture orientée service. A l‟heure actuelle, les travaux de recherche se concentrent principalement sur la découverte et la composition. Cependant, la complexité de la structure de l‟espace des services Web et son évolution doivent nécessairement être prises en compte. Ceci ne peut se concevoir sans faire appel à la science des systèmes complexes, et notamment à la théorie des réseaux complexes. Dans cette thèse, nous définissons un ensemble de réseaux pour la composition sur la base de services décrits dans des langages syntaxique (WSDL) et sémantique (SAWSDL). L‟exploration expérimentale de ces réseaux permet de mettre en évidence les propriétés caractéristiques des grands graphes de terrain (la propriété petit monde et la distribution sans échelle). On montre par ailleurs que ces réseaux possèdent une structure communautaire. Ce résultat permet d‟apporter une réponse alternative à la problématique de la classification de services selon les domaines d‟intérêts. En effet, les communautés regroupent non pas des services aux fonctionnalités similaires, mais des services qui ont en commun de nombreuses relations d‟interaction. Cette organisation peut être utilisée entre autres, afin de guider les algorithmes de recherche de compositions. De plus, en ce qui concerne la classification des services aux fonctionnalités similaires en vue de la découverte ou de la substitution, nous proposons un ensemble de modèles de réseaux pour les représentations syntaxique et sémantique des services, traduisant divers degrés de similitude. L‟analyse topologique de ces réseaux fait apparaître une structuration en composantes et une organisation interne des composantes autour de motifs élémentaires. Cette propriété permet une caractérisation à deux niveaux de la notion de communauté de services similaires, mettant ainsi en avant la souplesse de ce nouveau modèle d‟organisation. Ces travaux ouvrent de nouvelles perspectives dans les problématiques de l‟architecture orientée service.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Dennemont, Yannick. "Une assistance à l'interaction 3D en réalité virtuelle par un raisonnement sémantique et une conscience du contexte". Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00903529.

Texto completo
Resumen
Les tâches dans les environnements virtuels immersifs sont associées à des techniques et à des dispositifs d'interaction 3D (e.g. la sélection d'objets 3D à l'aide de la main virtuelle via un flystick). Alors que les environnements et les tâches deviennent de plus en plus complexes, les techniques ne peuvent plus être les mêmes pour chaque application, voire pour les différentes situations au sein d'une application. Une solution est d'adapter l'interaction en fonction des besoins de la situation pour améliorer l'utilisabilité. Ces adaptations peuvent être effectuées manuellement par le concepteur ou l'utilisateur, ou automatiquement par le système créant ainsi une interaction adaptative. La formalisation d'une telle assistance automatique nécessite la gestion d'informations pertinentes au vu de la situation. L'ensemble de ces informations fait émerger le contexte de l'interaction. L'assistance adaptative obtenue en raisonnant à partir de ces informations est ainsi consciente du contexte. De nombreuses possibilités existent pour l'obtenir. Notre objectif est une gestion du contexte qui préserve ses degrés élevés d'expressivité et d'évolutivité tout en étant facile à intégrer. Nous proposons une modélisation de ce problème par des graphes conceptuels basés sur une ontologie et gérés par un moteur externe en logique du premier ordre. Le moteur est générique et utilise une base de connaissance contenant des faits et des règles, qui peuvent être changés dynamiquement. Nous avons intégré une notion de confiance, afin d'établir l'adéquation d'une situation à la base de connaissances. La confiance des réactions est comparée à leur impact afin de ne garder que les pertinentes tout en évitant de saturer l'utilisateur. Les applications utilisent des outils qui peuvent être contrôlés par le moteur. Des capteurs permettent d'extraire des informations sémantiques pour le contexte. Des effecteurs permettent d'agir sur l'application et d'obtenir des adaptations. Un jeu d'outils et une base de connaissance pour l'interaction 3D ont été créés. De nombreuses étapes sont introduites dans la base de connaissance pour de bonnes combinaisons et une réflexion indépendante d'outils spécifiques. Nos premières applications illustrent la compréhension de la situation, dont les intérêts et difficultés de l'utilisateur, et le déclenchement d'assistances adaptées. Une étude hors ligne montre ensuite l'accès et l'évolution des étapes du moteur selon la situation. Le raisonnement sémantique générique obtenu est alors expressif, compréhensif, extensif et modifiable dynamiquement. Pour l'interaction 3D, il permet une assistance universelle automatique, ponctuelle ou manuelle à l'utilisateur et des analyses hors-lignes d'activités ou de conceptions pour le concepteur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

El, Sayad Ismail. "Une représentation visuelle avancée pour l'apprentissage sémantique dans les bases d'images". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00666531.

Texto completo
Resumen
Avec l'augmentation exponentielle de nombre d'images disponibles sur Internet, le besoin en outils efficaces d'indexation et de recherche d'images est devenu important. Dans cette thèse, nous nous baserons sur le contenu visuel des images comme source principale d'informations pour leur représentation. Basés sur l'approche des sacs de mots visuels, nous proposons une représentation visuelle avancée. Chaque image est modélisée par un mélange de catégories visuelles sémantiques, reliées à des catégories de haut niveau. Dans un premier temps, nous améliorons l'approche des sacs de mots visuels en caractérisant la constitution spatio-colorimétrique d'une image par le biais d'un mélange de n Gaussiennes dans l'espace de caractéristiques. Cela permet de proposer un nouveau descripteur de contour qui joue un rôle complémentaire avec le descripteur SURF. Cette proposition nous permet de résoudre le problème lié à la perte d'informations spatiales des sacs de mots visuels, et d'incorporer différentes informations relatives au contenu de l'image. Dans un deuxième temps, nous introduisons un nouveau modèle probabiliste basé sur les catégories : le modèle MSSA Multilayer Semantic Significance Analysis ou Analyse multi-niveaux de la pertinence sémantique dans le but d'étudier la sémantique des mots visuels construits. Ce modèle permet de construire des mots visuels sémantiquement cohérents (SSVW - Semantically Significant Visual Word). Ensuite, nous renforçons la capacité de catégorisation des SSVW en construisant des phrases visuelles sémantiquement cohérentes (SSVP - \textit{Semantically Significant Visual Phrase}), à partir des SSVW qui apparaissent fréquemment. Nous améliorons également l'invariance intra-classes des SSVW et des SSVP en les indexant en fonction de leur répartition, ce qui nous amène à générer une représentation d'un glossaire visuel invariant et sémantiquement cohérent (SSIVG - Semantically Significant Invariant Visual Glossary). Enfin, nous proposons un nouveau schéma de pondération spatiale ainsi qu'un classifieur multi-classes basé sur un vote. Nos résultats expérimentaux extensifs démontrent que la représentation visuelle proposée permet d'atteindre de meilleures performances comparativement aux représentations traditionnelles utilisées dans le domaine de la recherche, la classification et de la reconnaissance d'objets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Ngo, Duy Hoa. "Amélioration de l'alignement d'ontologies par les techniques d'apprentissage automatique, d'appariement de graphes et de recherche d'information". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00767318.

Texto completo
Resumen
Ces dernières années, les ontologies ont suscité de nombreux travaux dans le domaine du web sémantique. Elles sont utilisées pour fournir le vocabulaire sémantique permettant de rendre la connaissance du domaine disponible pour l'échange et l'interprétation au travers des systèmes d'information. Toutefois, en raison de la nature décentralisée du web sémantique, les ontologies sont très hétérogènes. Cette hétérogénéité provoque le problème de la variation de sens ou ambiguïté dans l'interprétation des entités et, par conséquent, elle empêche le partage des connaissances du domaine. L'alignement d'ontologies, qui a pour but la découverte des correspondances sémantiques entre des ontologies, devient une tâche cruciale pour résoudre ce problème d'hétérogénéité dans les applications du web sémantique. Les principaux défis dans le domaine de l'alignement d'ontologies ont été décrits dans des études récentes. Parmi eux, la sélection de mesures de similarité appropriées ainsi que le réglage de la configuration de leur combinaison sont connus pour être des problèmes fondamentaux que la communauté doit traiter. En outre, la vérification de la cohérence sémantique des correspondances est connue pour être une tâche importante. Par ailleurs, la difficulté du problème augmente avec la taille des ontologies. Pour faire face à ces défis, nous proposons dans cette thèse une nouvelle approche, qui combine différentes techniques issues des domaines de l'apprentissage automatique, d'appariement de graphes et de recherche d'information en vue d'améliorer la qualité de l'alignement d'ontologies. En effet, nous utilisons des techniques de recherche d'information pour concevoir de nouvelles mesures de similarité efficaces afin de comparer les étiquettes et les profils d'entités de contexte au niveau des entités. Nous appliquons également une méthode d'appariement de graphes appelée propagation de similarité au niveau de la structure qui découvre effectivement des correspondances en exploitant des informations structurelles des entités. Pour combiner les mesures de similarité au niveau des entités, nous transformons la tâche de l'alignement d'ontologie en une tâche de classification de l'apprentissage automatique. Par ailleurs, nous proposons une méthode dynamique de la somme pondérée pour combiner automatiquement les correspondances obtenues au niveau des entités et celles obtenues au niveau de la structure. Afin d'écarter les correspondances incohérentes, nous avons conçu une nouvelle méthode de filtrage sémantique. Enfin, pour traiter le problème de l'alignement d'ontologies à large échelle, nous proposons deux méthodes de sélection des candidats pour réduire l'espace de calcul. Toutes ces contributions ont été mises en œuvre dans un prototype nommé YAM++. Pour évaluer notre approche, nous avons utilisé des données du banc d'essai de la compétition OAEI : Benchmark, Conference, Multifarm, Anatomy, Library and Large Biomedical Ontologies. Les résultats expérimentaux montrent que les méthodes proposées sont très efficaces. De plus, en comparaison avec les autres participants à la compétition OAEI, YAM++ a montré sa compétitivité et a acquis une position de haut rang.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía