Gotowa bibliografia na temat „Données RDF”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Données RDF”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Données RDF"

1

Colazzo, Dario, François Goasdoué, Ionna Manolescu i Alexandra Roatis. "Analyse de données RDF. Lentilles pour graphes sémantiques". Ingénierie des systèmes d'information 19, nr 4 (28.08.2014): 87–117. http://dx.doi.org/10.3166/isi.19.4.87-117.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Fayçal, Hamdi, i Si-Said Cherfi Samira. "Une approche pour évaluer la complétude de données RDF". Ingénierie des systèmes d'information 21, nr 3 (28.06.2016): 31–52. http://dx.doi.org/10.3166/isi.21.3.31-52.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Gagnon, Michel. "Les bibliothèques numériques sont-elles solubles dans le Web sémantique ?" Documentation et bibliothèques 59, nr 3 (11.10.2013): 161–68. http://dx.doi.org/10.7202/1018846ar.

Pełny tekst źródła
Streszczenie:
Le Web sémantique, et plus particulièrement le réseau Linked Open Data, est appelé à transformer radicalement la manière dont les bibliothèques numériques rendent accessibles leurs documents et les métadonnées sur ceux-ci. Dans cet article, après une brève présentation des principales technologies du Web sémantique, et plus particulièrement du modèle de données RDF sur lequel il repose, nous montrons comment les bibliothèques numériques peuvent s’intégrer au réseau Linked Open Data. Puis nous abordons le problème crucial de l’extraction, à partir de contenus textuels, des métadonnées nécessaires à cette intégration.
Style APA, Harvard, Vancouver, ISO itp.
4

Le Boeuf, Patrick. "Modélisation conceptuelle de l’information bibliographique et muséologique : CIDOC CRM et FRBRoo". Documentation et bibliothèques 55, nr 4 (18.03.2015): 209–14. http://dx.doi.org/10.7202/1029185ar.

Pełny tekst źródła
Streszczenie:
Le modèle conceptuel développé par l’IFLA (Fédération internationale des associations de bibliothécaires et de bibliothèques) pour l’information bibliographique, FRBR, fait désormais partie de l’outillage intellectuel des bibliothécaires. La communauté muséologique a également développé un modèle conceptuel pour l’information quelle produit, le CIDOC CRM. L’article expose le travail accompli pour aboutir à un modèle conceptuel commun, de formalisme orienté objet compatible avec le langage RDF, dans la perspective du développement du Web sémantique, dans le cadre duquel une ontologie commune permettra d’exploiter simultanément l’information contenue dans les bases de données bibliographiques et muséographiques.
Style APA, Harvard, Vancouver, ISO itp.
5

Ivinza Lepapa, Alphonse-Christian. "L’impact organisationnel du big data : Cas des entreprises congolaises". Acta Europeana Systemica 7 (11.07.2020): 93–108. http://dx.doi.org/10.14428/aes.v7i1.56663.

Pełny tekst źródła
Streszczenie:
Ce travail a pour but d'examiner l’impact organisationnel des Big Data dans le cadre particulier des entreprises d’un pays sous développé (PSD), qu’est la République Démocratique du Congo (RDC). Les recherches sur l’impact organisationnel des Big Data couvrent principalement la structure des ordinateurs, les architectures Big Data (Im Memory, MPP, SSD). "Les entreprises sont considérées comme des systèmes caractérisés par un besoin fondamental, celui de la survie" (SEGUIN F. et CHANLAT J.F, 1983, page 12). Cette conception relève du paradigme fonctionnaliste et de l’approche managériale qui met en évidence les éléments majeurs qui doivent être maîtrisés pour assurer la survie d'une organisation : l'adaptation, la réalisation des buts, l'intégration et le maintien des normes. L’objet du Big Data n’est pas l’information, mais bien la donnée elle-même, valeur de variable manipulée par les TIC. C’est cette démarche que nous souhaitons explorer dans son utilité pour les entreprises Congolaises. L’originalité de Big Data réside en ce qu’elle ne s’appuie pas sur les structurations préexistantes à la collecte de données, mais entend découvrir au sein de ces données des modèles. Par ailleurs, transformer des informations en données induit un coût minima de capture, de transmission et de stockage. Certaines informations sont ainsi transformées en données en raison de leur utilité supposée. Le Big Data est la combinaison d’au moins deux éléments suivants : volume élevé mais peu défini, complexité et technologies. (DELORT, 2015, pages 5 et sq) L’idée d’un impact organisationnel des TIC et du Big Data semble relever d’un déterminisme technologique renaissant de ses cendres comme à chaque grande vague d’innovations technologiques. (KEFI et KALIKA, 2005, page 45). Nous examinerons la problématique de l’impact des BIG DATA suivant les aspects suivants : - Quels outils de modélisation inductive ? (Econométrie, Machine Learning, modélisation explicative et prédictive) - Quelles transformations dans les entreprises ? - Quelles compétences dans quelle structure ? (compétences technologiques, compétences business).
Style APA, Harvard, Vancouver, ISO itp.
6

Merkenbreack, Vincent. "La structuration du paysage littoral morin : l’exemple de Marquise". Revue du Nord Tome 104, nr 3 (20.09.2023): 95–111. http://dx.doi.org/10.3917/rdn.447.0095.

Pełny tekst źródła
Streszczenie:
Les investigations archéologiques menées depuis une quinzaine d’années sur le territoire de Marquise, non loin de Boulogne-sur-Mer, ont permis de collecter un grand nombre de données nouvelles et ce, sur un vaste secteur en terme de superficie. Il en résulte la possibilité d’analyser cette portion du littoral morin sous l’angle de la structuration du territoire à l’époque romaine. Les données archéologiques concernant la Protohistoire récente sont minimes sur le territoire de Marquise mais les récentes opérations d’archéologie préventive nous permettent de commencer à appréhender ces vestiges sur cette partie du littoral morin. Ainsi, on observe une translation d’une occupation domestique et des espaces funéraires entre La Tène finale et le Haut-Empire. Avec les données d’occupation romaine précoce, la présence de tombes monumentales utilisant des blocs de remploi ou encore la mise au jour d’un mithraeum , le statut de Marquise reste néanmoins à préciser mais une structuration rigoureuse du paysage est avérée et ce, de la fin du i er s. av. J.-C. jusqu’au iv e s. ap. J.-C.
Style APA, Harvard, Vancouver, ISO itp.
7

Alphandéry, Pierre, i Agnès Fortier. "Les données sur la nature entre rationalisation et passion". Revue du MAUSS 42, nr 2 (2013): 202. http://dx.doi.org/10.3917/rdm.042.0202.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Caillé, Alain. "Jouer/Donner". Revue du MAUSS 41, nr 1 (2013): 241. http://dx.doi.org/10.3917/rdm.041.0241.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Conesa, Élisabeth. "Donner son corps, donner la vie à un enfant ?" Revue du MAUSS 39, nr 1 (2012): 141. http://dx.doi.org/10.3917/rdm.039.0141.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
10

Bergeron, Geneviève, Luc Prud’homme i Nadia Rousseau. "Illustrations, apports et limites d’une posture inductive en recherche-action-formation". Approches inductives 6, nr 1 (3.06.2019): 10–37. http://dx.doi.org/10.7202/1060043ar.

Pełny tekst źródła
Streszczenie:
La recherche-action-formation (RAF) n’est pas une approche méthodologique nouvelle. Elle peut par ailleurs emprunter différents paradigmes et s’actualiser par l’entremise d’un éventail de méthodes et d’outils (Dolbec & Prud’homme, 2009). Dans cet article, nous souhaitons montrer que la RAF représente un terreau fertile à l’induction, une posture singulière que le chercheur peut adopter dans l’exploration de phénomènes humains et selon laquelle c’est la méthode qui s’adapte à l’objet et aux particularités du terrain, et non l’inverse. Plus précisément, l’article vise à illustrer comment s’est manifestée cette perspective inductive dans l’articulation singulière d’une RAF (Bergeron, 2014). Sont notamment mises en lumière certaines marques de l’induction qui influencent la nature des régulations entre les trois pôles de la RAF où les processus de collecte et d’analyse des données sont en constant dialogue. L’article se termine par une discussion entourant certains apports et limites qui peuvent s’associer à l’adoption d’une telle posture.
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Données RDF"

1

Lesnikova, Tatiana. "Liage de données RDF : évaluation d'approches interlingues". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM011/document.

Pełny tekst źródła
Streszczenie:
Le Web des données étend le Web en publiant des données structurées et liées en RDF. Un jeu de données RDF est un graphe orienté où les ressources peuvent être des sommets étiquetées dans des langues naturelles. Un des principaux défis est de découvrir les liens entre jeux de données RDF. Étant donnés deux jeux de données, cela consiste à trouver les ressources équivalentes et les lier avec des liens owl:sameAs. Ce problème est particulièrement difficile lorsque les ressources sont décrites dans différentes langues naturelles.Cette thèse étudie l'efficacité des ressources linguistiques pour le liage des données exprimées dans différentes langues. Chaque ressource RDF est représentée comme un document virtuel contenant les informations textuelles des sommets voisins. Les étiquettes des sommets voisins constituent le contexte d'une ressource. Une fois que les documents sont créés, ils sont projetés dans un même espace afin d'être comparés. Ceci peut être réalisé à l'aide de la traduction automatique ou de ressources lexicales multilingues. Une fois que les documents sont dans le même espace, des mesures de similarité sont appliquées afin de trouver les ressources identiques. La similarité entre les documents est prise pour la similarité entre les ressources RDF.Nous évaluons expérimentalement différentes méthodes pour lier les données RDF. En particulier, deux stratégies sont explorées: l'application de la traduction automatique et l'usage des banques de données terminologiques et lexicales multilingues. Dans l'ensemble, l'évaluation montre l'efficacité de ce type d'approches. Les méthodes ont été évaluées sur les ressources en anglais, chinois, français, et allemand. Les meilleurs résultats (F-mesure > 0.90) ont été obtenus par la traduction automatique. L'évaluation montre que la méthode basée sur la similarité peut être appliquée avec succès sur les ressources RDF indépendamment de leur type (entités nommées ou concepts de dictionnaires)
The Semantic Web extends the Web by publishing structured and interlinked data using RDF.An RDF data set is a graph where resources are nodes labelled in natural languages. One of the key challenges of linked data is to be able to discover links across RDF data sets. Given two data sets, equivalent resources should be identified and linked by owl:sameAs links. This problem is particularly difficult when resources are described in different natural languages.This thesis investigates the effectiveness of linguistic resources for interlinking RDF data sets. For this purpose, we introduce a general framework in which each RDF resource is represented as a virtual document containing text information of neighboring nodes. The context of a resource are the labels of the neighboring nodes. Once virtual documents are created, they are projected in the same space in order to be compared. This can be achieved by using machine translation or multilingual lexical resources. Once documents are in the same space, similarity measures to find identical resources are applied. Similarity between elements of this space is taken for similarity between RDF resources.We performed evaluation of cross-lingual techniques within the proposed framework. We experimentally evaluate different methods for linking RDF data. In particular, two strategies are explored: applying machine translation or using references to multilingual resources. Overall, evaluation shows the effectiveness of cross-lingual string-based approaches for linking RDF resources expressed in different languages. The methods have been evaluated on resources in English, Chinese, French and German. The best performance (over 0.90 F-measure) was obtained by the machine translation approach. This shows that the similarity-based method can be successfully applied on RDF resources independently of their type (named entities or thesauri concepts). The best experimental results involving just a pair of languages demonstrated the usefulness of such techniques for interlinking RDF resources cross-lingually
Style APA, Harvard, Vancouver, ISO itp.
2

Tanasescu, Adrian. "Vers un accès sémantique aux données : approche basée sur RDF". Lyon 1, 2007. http://www.theses.fr/2007LYO10069.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons à la recherche dans les documents RDF et nous proposons de mettre les bases d'une approche permettant de fournir, pour une requête de l'utilisateur, des réponses plus complètes et en même temps cohérentes. Cette approche consiste essentiellement en une combinaison sémantique des informations en provenance de plusieurs graphes RDF. L'approche proposée adresse principalement les points suivants : (1) déterminer si les graphes RDF sont en contradiction, tout en utilisant les connaissances ontologiques associées, et (2) construire des réponses cohérentes et plus complètes par la combinaisons de graphes RDF qui ne décrivent pas des assertions contradictoires. Nous présentons aussi une plateforme de stockage et interrogation de documents RDF, nommée SyRQuS, dont le moteur de recherche est intégralement construit sur la base d'une approche. La plateforme, basée sur le Web, permet l'interrogation d'une base de données à l'aide du langage de requête SPARQL
The thesis mainly focuses on information retrival through RDF documents querying. Therefore, we propose an approach able to provide complete and pertinent answers to a user formulated SPARQL query. The approach mainly consists of (1) determining, through a similarity measure, whether two RDF graphs are contradictory, by using the associated ontological knowledge, and (2) building pertinent answers through the combination of statements belonging to non contradicting RDF graphs that partially answer a given query. We also present an RDF storage and querying platform, named SyRQuS, whose query answering plan is entirely based on the former proposed querying approach. SyRQuS is a Web based plateform that mainly provides users with a querying interface where queries can be formulated using SPARQL
Style APA, Harvard, Vancouver, ISO itp.
3

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Pełny tekst źródła
Streszczenie:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
Style APA, Harvard, Vancouver, ISO itp.
4

Ouksili, Hanane. "Exploration et interrogation de données RDF intégrant de la connaissance métier". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV069.

Pełny tekst źródła
Streszczenie:
Un nombre croissant de sources de données est publié sur le Web, décrites dans les langages proposés par le W3C tels que RDF, RDF(S) et OWL. Une quantité de données sans précédent est ainsi disponible pour les utilisateurs et les applications, mais l'exploitation pertinente de ces sources constitue encore un défi : l'interrogation des sources est en effet limitée d'abord car elle suppose la maîtrise d'un langage de requêtes tel que SPARQL, mais surtout car elle suppose une certaine connaissance de la source de données qui permet de cibler les ressources et les propriétés pertinentes pour les besoins spécifiques des applications. Le travail présenté ici s'intéresse à l'exploration de sources de données RDF, et ce selon deux axes complémentaires : découvrir d'une part les thèmes sur lesquels porte la source de données, fournir d'autre part un support pour l'interrogation d'une source sans l'utilisation de langage de requêtes, mais au moyen de mots clés. L'approche d'exploration proposée se compose ainsi de deux stratégies complémentaires : l'exploration thématique et la recherche par mots clés. La découverte de thèmes dans une source de données RDF consiste à identifier un ensemble de sous-graphes, non nécessairement disjoints, chacun représentant un ensemble cohérent de ressources sémantiquement liées et définissant un thème selon le point de vue de l'utilisateur. Ces thèmes peuvent être utilisés pour permettre une exploration thématique de la source, où les utilisateurs pourront cibler les thèmes pertinents pour leurs besoins et limiter l'exploration aux seules ressources composant les thèmes sélectionnés. La recherche par mots clés est une façon simple et intuitive d'interroger les sources de données. Dans le cas des sources de données RDF, cette recherche pose un certain nombre de problèmes, comme l'indexation des éléments du graphe, l'identification des fragments du graphe pertinents pour une requête spécifique, l'agrégation de ces fragments pour former un résultat, et le classement des résultats obtenus. Nous abordons dans cette thèse ces différents problèmes, et nous proposons une approche qui permet, en réponse à une requête mots clés, de construire une liste de sous-graphes et de les classer, chaque sous-graphe correspondant à un résultat pertinent pour la requête. Pour chacune des deux stratégies d'exploration d'une source RDF, nous nous sommes intéressés à prendre en compte de la connaissance externe, permettant de mieux répondre aux besoins des utilisateurs. Cette connaissance externe peut représenter des connaissances du domaine, qui permettent de préciser le besoin exprimé dans le cas d'une requête, ou de prendre en compte des connaissances permettant d'affiner la définition des thèmes. Dans notre travail, nous nous sommes intéressés à formaliser cette connaissance externe et nous avons pour cela introduit la notion de pattern. Ces patterns représentent des équivalences de propriétés et de chemins dans le graphe représentant la source. Ils sont évalués et intégrés dans le processus d'exploration pour améliorer la qualité des résultats
An increasing number of datasets is published on the Web, expressed in languages proposed by the W3C to describe Web data such as RDF, RDF(S) and OWL. The Web has become a unprecedented source of information available for users and applications, but the meaningful usage of this information source is still a challenge. Querying these data sources requires the knowledge of a formal query language such as SPARQL, but it mainly suffers from the lack of knowledge about the source itself, which is required in order to target the resources and properties relevant for the specific needs of the application. The work described in this thesis addresses the exploration of RDF data sources. This exploration is done according to two complementary ways: discovering the themes or topics representing the content of the data source, and providing a support for an alternative way of querying the data sources by using keywords instead of a query formulated in SPARQL. The proposed exploration approach combines two complementary strategies: thematic-based exploration and keyword search. Theme discovery from an RDF dataset consists in identifying a set of sub-graphs which are not necessarily disjoints, and such that each one represents a set of semantically related resources representing a theme according to the point of view of the user. These themes can be used to enable a thematic exploration of the data source where users can target the relevant theme and limit their exploration to the resources composing this theme. Keyword search is a simple and intuitive way of querying data sources. In the case of RDF datasets, this search raises several problems, such as indexing graph elements, identifying the relevant graph fragments for a specific query, aggregating these relevant fragments to build the query results, and the ranking of these results. In our work, we address these different problems and we propose an approach which takes as input a keyword query and provides a list of sub-graphs, each one representing a candidate result for the query. These sub-graphs are ordered according to their relevance to the query. For both keyword search and theme identification in RDF data sources, we have taken into account some external knowledge in order to capture the users needs, or to bridge the gap between the concepts invoked in a query and the ones of the data source. This external knowledge could be domain knowledge allowing to refine the user's need expressed by a query, or to refine the definition of themes. In our work, we have proposed a formalization to this external knowledge and we have introduced the notion of pattern to this end. These patterns represent equivalences between properties and paths in the dataset. They are evaluated and integrated in the exploration process to improve the quality of the result
Style APA, Harvard, Vancouver, ISO itp.
5

Michel, Franck. "Intégrer des sources de données hétérogènes dans le Web de données". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4002/document.

Pełny tekst źródła
Streszczenie:
Le succès du Web de Données repose largement sur notre capacité à atteindre les données stockées dans des silos invisibles du web. Dans les 15 dernières années, des travaux ont entrepris d’exposer divers types de données structurées au format RDF. Dans le même temps, le marché des bases de données (BdD) est devenu très hétérogène avec le succès massif des BdD NoSQL. Celles-ci sont potentiellement d’importants fournisseurs de données liées. Aussi, l’objectif de cette thèse est de permettre l’intégration en RDF de sources de données hétérogènes, et notamment d'alimenter le Web de Données avec les données issues des BdD NoSQL. Nous proposons un langage générique, xR2RML, pour décrire le mapping de sources hétérogènes vers une représentation RDF arbitraire. Ce langage étend des travaux précédents sur la traduction de sources relationnelles, CSV/TSV et XML en RDF. Sur cette base, nous proposons soit de matérialiser les données RDF, soit d'évaluer dynamiquement des requêtes SPARQL sur la base native. Dans ce dernier cas, nous proposons une approche en deux étapes : (i) traduction d’une requête SPARQL en une requête pivot, abstraite, en se basant sur le mapping xR2RML ; (ii) traduction de la requête abstraite en une requête concrète, prenant en compte les spécificités du langage de requête de la BdD cible. Un souci particulier est apporté à l'optimisation des requêtes, aux niveaux abstrait et concret. Nous démontrons l’applicabilité de notre approche via un prototype pour la populaire base MongoDB. Nous avons validé la méthode dans un cas d’utilisation réel issu du domaine des humanités numériques
To a great extent, the success of the Web of Data depends on the ability to reach out legacy data locked in silos inaccessible from the web. In the last 15 years, various works have tackled the problem of exposing various structured data in the Resource Description Format (RDF). Meanwhile, the overwhelming success of NoSQL databases has made the database landscape more diverse than ever. NoSQL databases are strong potential contributors of valuable linked open data. Hence, the object of this thesis is to enable RDF-based data integration over heterogeneous data sources and, in particular, to harness NoSQL databases to populate the Web of Data. We propose a generic mapping language, xR2RML, to describe the mapping of heterogeneous data sources into an arbitrary RDF representation. xR2RML relies on and extends previous works on the translation of RDBs, CSV/TSV and XML into RDF. With such an xR2RML mapping, we propose either to materialize RDF data or to dynamically evaluate SPARQL queries on the native database. In the latter, we follow a two-step approach. The first step performs the translation of a SPARQL query into a pivot abstract query based on the xR2RML mapping of the target database to RDF. In the second step, the abstract query is translated into a concrete query, taking into account the specificities of the database query language. Great care is taken of the query optimization opportunities, both at the abstract and the concrete levels. To demonstrate the effectiveness of our approach, we have developed a prototype implementation for MongoDB, the popular NoSQL document store. We have validated the method using a real-life use case in Digital Humanities
Style APA, Harvard, Vancouver, ISO itp.
6

Bouhamoum, Redouane. "Découverte automatique de schéma pour les données irrégulières et massives". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG081.

Pełny tekst źródła
Streszczenie:
Le web des données est un espace dans lequel de nombreuses sources sont publiées et interconnectées, et qui repose sur les technologies du web sémantique. Cet espace offre des possibilités d'utilisation sans précédent, cependant, l'exploitation pertinente des sources qu'il contient est rendue difficile par l'absence de schéma décrivant leur contenu. Des approches de découverte automatique de schéma ont été proposées, mais si elles produisent des schémas de bonne qualité, leur complexité limite leur utilisation pour des sources de données massives. Dans notre travail, nous nous intéressons au problème du passage à l'échelle de la découverte de schéma à partir de sources de données RDF massives dont le schéma est incomplet ou absent. Nous nous intéressons également à l'incrémentalité de ces approches et à la prise en compte de connaissances implicites fournies par une source de données.Notre première contribution consiste en une approche scalable de découverte de schéma qui permet l'extraction des classes décrivant le contenu d'une source de données RDF massive. Pour cela, nous avons d'abord proposé d'extraire une représentation condensée d'une source de données RDF qui servira en entrée du processus de découverte de schéma afin d'en améliorer les performances.Cette représentation est un ensemble de patterns qui correspondent à des combinaisons de propriétés décrivant les entités du jeu de données.Nous avons ensuite proposé une approche scalable de découverte de schéma fondée sur un algorithme de clustering distribué qui forme des groupes d'entités structurellement similaires représentant les classes du schéma.Notre deuxième contribution a pour but de maintenir le schéma extrait cohérent avec les changements survenant au niveau des sources RDF, ces dernières étant en constante évolution. Nous proposons pour cela une approche incrémentale de découverte de schéma qui modifie l'ensemble des classes extraites en propageant dans ces dernières les changements survenus dans les sources.Enfin, dans la troisième contribution de notre travail, nous adaptons notre approche de découverte de schéma afin qu'elle prenne en compte toute la sémantique portée par la source de données, qui est représentée par les triplets explicitement déclarés, mais également tous ceux qui peuvent en être déduits par inférence. Nous proposons une extension permettant de prendre en compte toutes les propriétés d'une entité lors de la découverte de schéma, qu'elles correspondent à des triplets explicites ou implicites, ce qui améliorera la qualité du schéma produit
The web of data is a huge global data space, relying on semantic web technologies, where a high number of sources are published and interlinked. This data space provides an unprecedented amount of knowledge available for novel applications, but the meaningful usage of its sources is often difficult due to the lack of schema describing the content of these data sources. Several automatic schema discovery approaches have been proposed, but while they provide good quality schemas, their use for massive data sources is a challenge as they rely on costly algorithms. In our work, we are interested in both the scalability and the incrementality of schema discovery approaches for RDF data sources where the schema is incomplete or missing.Furthermore, we extend schema discovery to take into account not only the explicit information provided by a data source, but also the implicit information which can be inferred.Our first contribution consists of a scalable schema discovery approach which extracts the classes describing the content of a massive RDF data source.We have proposed to extract a condensed representation of the source, which will be used as an input to the schema discovery process in order to improve its performances.This representation is a set of patterns, each one representing a combination of properties describing some entities in the dataset. We have also proposed a scalable schema discovery approach relying on a distributed clustering algorithm that forms groups of structurally similar entities representing the classes of the schema.Our second contribution aims at maintaining the generated schema consistent with the data source it describes, as this latter may evolve over time. We propose an incremental schema discovery approach that modifies the set of extracted classes by propagating the changes occurring at the source, in order to keep the schema consistent with its evolutions.Finally, the goal of our third contribution is to extend schema discovery to consider the whole semantics expressed by a data source, which is represented not only by the explicitly declared triples, but also by the ones which can be inferred through reasoning. We propose an extension allowing to take into account all the properties of an entity during schema discovery, represented either by explicit or by implicit triples, which will improve the quality of the generated schema
Style APA, Harvard, Vancouver, ISO itp.
7

Rihany, Mohamad. "Keyword Search and Summarization Approaches for RDF Dataset Exploration". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG030.

Pełny tekst źródła
Streszczenie:
Un nombre croissant de sources de données sont publiées sur le web, exprimées dans les langages proposés par le W3C comme RDF, RDF (S) et OWL. Ces sources représentent un volume de données sans précédent disponible pour les utilisateurs et les applications. Afin d’identifier les sources les plus pertinentes et de les utiliser, il est nécessaire d’en connaître le contenu, par exemple au moyen de requêtes écrites en Sparql, le langage d’interrogation proposé par le W3C pour les sources de données RDF. Mais cela nécessite, en plus de la maîtrise du langage Sparql, de disposer de connaissances sur le contenu de la source en termes de ressources, classes ou propriétés qu’elle contient. L’objectif de ma thèse est d’étudier des approches permettant de fournir un support à l’exploration d’une source de données RDF. Nous avons proposé deux approches complémentaires, la recherche mots-clés et le résumé d’un graphe RDF.La recherche mots-clés dans un graphe RDF renvoie un ou plusieurs sous-graphes en réponse à une requête exprimée comme un ensemble de termes à rechercher. Chaque sous-graphe est l’agrégation d’éléments extraits du graphe initial, et représente une réponse possible à la requête constituée par un ensemble de mots-clés. Les sous-graphes retournés peuvent être classés en fonction de leur pertinence. La recherche par mot-clé dans des sources de données RDF soulève les problèmes suivants : (i) l’identification pour chaque mot-clé de la requête des éléments correspondants dans le graphe considéré, en prenant en compte les différences de terminologies existant entre les mots-clés et les termes utilisés dans le graphe RDF, (ii) la combinaison des éléments de graphes retournés pour construire un sous-graphe résultat en utilisant des algorithmes d’agrégation capable de déterminer la meilleure façon de relier les éléments du graphe correspondant à des mots-clés, et enfin (iii), comme il peut exister plusieurs éléments du graphe qui correspondent à un même mot-clé, et par conséquent plusieurs sous-graphes résultat, il s’agit d’évaluer la pertinence de ces sous-graphes par l’utilisation de métriques appropriées. Dans notre travail, nous avons proposé une approche de recherche par mot-clé qui apporte des solutions aux problèmes ci-dessus.Fournir une vue résumée d’un graphe RDF peut être utile afin de déterminer si ce graphe correspond aux besoins d’un utilisateur particulier en mettant en évidence ses éléments les plus importants ; une telle vue résumée peut faciliter l’exploration du graphe. Dans notre travail, nous avons proposé une approche de résumé originale fondée sur l’identification des thèmes sous-jacents dans un graphe RDF. Notre approche de résumé consiste à extraire ces thèmes, puis à construire le résumé en garantissant que tous les thèmes sont représentés dans le résultat. Cela pose les questions suivantes : (i) comment identifier les thèmes dans un graphe RDF ? (ii) quels sont les critères adaptés pour identifier les éléments les plus pertinents dans les sous-graphes correspondants à un thème ? (iii) comment connecter les éléments les plus pertinents pour créer le résumé d’une thème ? et enfin (iv) comment générer un résumé pour le graphe initial à partir des résumés de thèmes ? Dans notre travail, nous avons proposé une approche qui fournit des réponses à ces questions et qui produit une représentation résumée d’un graphe RDF garantissant que chaque thème y est représenté proportionnellement à son importance dans le graphe initial
An increasing number of datasets are published on the Web, expressed in the standard languages proposed by the W3C such as RDF, RDF (S), and OWL. These datasets represent an unprecedented amount of data available for users and applications. In order to identify and use the relevant datasets, users and applications need to explore them using queries written in SPARQL, a query language proposed by the W3C. But in order to write a SPARQL query, a user should not only be familiar with the query language but also have knowledge about the content of the RDF dataset in terms of the resources, classes or properties it contains. The goal of this thesis is to provide approaches to support the exploration of these RDF datasets. We have studied two alternative and complementary exploration techniques, keyword search and summarization of an RDF dataset. Keyword search returns RDF graphs in response to a query expressed as a set of keywords, where each resulting graph is the aggregation of elements extracted from the source dataset. These graphs represent possible answers to the keyword query, and they can be ranked according to their relevance. Keyword search in RDF datasets raises the following issues: (i) identifying for each keyword in the query the matching elements in the considered dataset, taking into account the differences of terminology between the keywords and the terms used in the RDF dataset, (ii) combining the matching elements to build the result by defining aggregation algorithms that find the best way of linking matching elements, and finally (iii), finding appropriate metrics to rank the results, as several matching elements may exist for each keyword and consequently several graphs may be returned. In our work, we propose a keyword search approach that addresses these issues. Providing a summarized view of an RDF dataset can help a user in identifying if this dataset is relevant to his needs, and in highlighting its most relevant elements. This could be useful for the exploration of a given dataset. In our work, we propose a novel summarization approach based on the underlying themes of a dataset. Our theme-based summarization approach consists of extracting the existing themes in a data source, and building the summarized view so as to ensure that all these discovered themes are represented. This raises the following questions: (i) how to identify the underlying themes in an RDF dataset? (ii) what are the suitable criteria to identify the relevant elements in the themes extracted from the RDF graph? (iii) how to aggregate and connect the relevant elements to create a theme summary? and finally, (iv) how to create the summary for the whole RDF graph from the generated theme summaries? In our work, we propose a theme-based summarization approach for RDF datasets which answers these questions and provides a summarized representation ensuring that each theme is represented proportionally to its importance in the initial dataset
Style APA, Harvard, Vancouver, ISO itp.
8

Lozano, Aparicio Jose Martin. "Data exchange from relational databases to RDF with target shape schemas". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I063.

Pełny tekst źródła
Streszczenie:
Resource Description Framework (RDF) est un modèle de graphe utilisé pour publier des données sur le Web à partir de bases de données relationnelles. Nous étudions l'échange de données depuis des bases de données relationnelles vers des graphes RDF avec des schémas de formes cibles. Essentiellement, échange de données modélise un processus de transformation d'une instance d'un schéma relationnel, appelé schéma source, en un graphe RDF contraint par un schéma cible, selon un ensemble de règles, appelé tuple source-cible générant des dépendances. Le graphe RDF obtenu est appelé une solution. Étant donné que les dépendances générant des tuple définissent ce processus de manière déclarative, il peut y avoir de nombreuses solutions possibles ou aucune solution du tout. Nous étudions le système d'échange de données relationnel avec RDF constructive avec des schémas de formes cibles, qui est composé d'un schéma source relationnel, un schéma de formes pour le schéma cible, un ensemble de mappages utilisant des constructeurs IRI. De plus, nous supposons que deux constructeurs IRI ne se chevauchent pas. Nous proposons un langage visuel pour la spécification des correspondances (VML) qui aide les utilisateurs non experts à spécifier des mappages dans ce système. De plus, nous développons un outil appelé ShERML qui effectue l'échange de données avec l'utilisation de VML et pour les utilisateurs qui souhaitent comprendre le modèle derrière les mappages VML, nous définissons R2VML, un langage texte, qui capture VML et présente une syntaxe succincte pour définition des mappages.Nous étudions le problème de la vérification de la consistance: un système d'échange de données est consistent si pour chaque instance de source d'entrée, il existe au moins une solution. Nous montrons que le problème de consistance est coNP-complet et fournissons un algorithme d'analyse statique du système qui permet de décider si le système est consistent ou non.Nous étudions le problème du calcul de réponses certaines. Une réponse est certaine si la réponse tient dans chaque solution. En générale, réponses certaines sont calculées en utilisant d'une solution universelle. Cependant, dans notre contexte, une solution universelle pourrait ne pas exister. Ainsi, nous introduisons la notion de solution de simulation universelle, qui existe toujours et permet de calculer certaines réponses à n'importe quelle classe de requêtes robustes sous simulation. Une de ces classes sont les expressions régulières imbriquées (NRE) qui sont forward c'est-à-dire qui n'utilisent pas l’opération inverse. L'utilisation d'une solution de simulation universelle rend traitable le calcul de réponses certaines pour les NRE (data-complexity).Enfin, nous étudions le problème d'extraction de schéma des formes qui consiste à construire un schéma de formes cibles à partir d'un système constructif d'échange de données relationnel vers RDF sans le schéma de formes cibles. Nous identifions deux propriétés souhaitables d'un bon schéma cible, qui sont la correction c'est-à-dire que chaque graphe RDF produit est accepté par le schéma cible; et la complétude c'est-à-dire que chaque graphe RDF accepté par le schéma cible peut être produit. Nous proposons un algorithme d'extraction qui convient à tout système d'échange de données sans schéma, mais qui est également complet pour une grande classe pratique de systèmes sans schéma
Resource Description Framework (RDF) is a graph data model which has recently found the use of publishing on the web data from relational databases. We investigate data exchange from relational databases to RDF graphs with target shapes schemas. Essentially, data exchange models a process of transforming an instance of a relational schema, called the source schema, to a RDF graph constrained by a target schema, according to a set of rules, called source-to-target tuple generating dependencies. The output RDF graph is called a solution. Because the tuple generating dependencies define this process in a declarative fashion, there might be many possible solutions or no solution at all. We study constructive relational to RDF data exchange setting with target shapes schemas, which is composed of a relational source schema, a shapes schema for the target schema, a set of mappings that uses IRI constructors. Furthermore, we assume that any two IRI constructors are non-overlapping. We propose a visual mapping language (VML) that helps non-expert users to specify mappings in this setting. Moreover, we develop a tool called ShERML that performs data exchange with the use of VML and for users that want to understand the model behind VML mappings, we define R2VML, a text-based mapping language, that captures VML and presents a succinct syntax for defining mappings.We investigate the problem of checking consistency: a data exchange setting is consistent if for every input source instance, there is at least one solution. We show that the consistency problem is coNP-complete and provide a static analysis algorithm of the setting that allows to decide if the setting is consistent or not. We study the problem of computing certain answers. An answer is certain if the answer holds in every solution. Typically, certain answers are computed using a universal solution. However, in our setting a universal solution might not exist. Thus, we introduce the notion of universal simulation solution, which always exists and allows to compute certain answers to any class of queries that is robust under simulation. One such class is nested regular expressions (NREs) that are forward i.e., do not use the inverse operation. Using universal simulation solution renders tractable the computation of certain answers to forward NREs (data-complexity).Finally, we investigate the shapes schema elicitation problem that consists of constructing a target shapes schema from a constructive relational to RDF data exchange setting without the target shapes schema. We identity two desirable properties of a good target schema, which are soundness i.e., every produced RDF graph is accepted by the target schema; and completeness i.e., every RDF graph accepted by the target schema can be produced. We propose an elicitation algorithm that is sound for any schema-less data exchange setting, but also that is complete for a large practical class of schema-less settings
Style APA, Harvard, Vancouver, ISO itp.
9

Kellou-Menouer, Kenza. "Découverte de schéma pour les données du Web sémantique". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV047/document.

Pełny tekst źródła
Streszczenie:
Un nombre croissant de sources de données interconnectées sont publiées sur le Web. Cependant, leur schéma peut êtreincomplet ou absent. De plus, les données ne sont pas nécessairement conformes au schéma déclaré. Ce qui rend leur exploitation complexe. Dans cette thèse, nous proposons une approche d’extraction automatique et incrémentale du schéma d’une source à partir de la structure implicite de ses données. Afin decompléter la description des types découverts, nous proposons également une approche de découverte des patterns structurels d’un type. L’approche procède en ligne sans avoir à télécharger ou à parcourir la source. Ce quipeut être coûteux voire impossible car les sources sont interrogées à distance et peuvent imposer des contraintes d’accès, notamment en termes de temps ou de nombre de requêtes. Nous avons abordé le problème de l’annotationafin de trouver pour chaque type un ensemble de labels permettant de rendre compte de sonsens. Nous avons proposé des algorithmes d’annotation qui retrouvent le sens d’un type en utilisant des sources de données de références. Cette approche s’applique aussi bien pour trouver des noms pertinents pour les typesdécouverts que pour enrichir la description des types existants. Enfin, nous nous sommes intéressés à caractériser la conformité entre les données d’une source et le schéma qui les décrit. Nous avons proposé une approche pour l'analyse et l'amélioration de cette conformité et nous avons proposé des facteurs de qualité, les métriques associées, ainsi qu'une extension du schéma permettant de refléter l'hétérogénéité entre les instances d'un type
An increasing number of linked data sources are published on the Web. However, their schema may be incomplete or missing. In addition, data do not necessarily follow their schema. This flexibility for describing the data eases their evolution, but makes their exploitation more complex. In our work, we have proposed an automatic and incremental approach enabling schema discovery from the implicit structure of the data. To complement the description of the types in a schema, we have also proposed an approach for finding the possible versions (patterns) for each of them. It proceeds online without having to download or browse the source. This can be expensive or even impossible because the sources may have some access limitations, either on the query execution time, or on the number of queries.We have also addressed the problem of annotating the types in a schema, which consists in finding a set of labels capturing their meaning. We have proposed annotation algorithms which provide meaningful labels using external knowledge bases. Our approach can be used to find meaningful type labels during schema discovery, and also to enrichthe description of existing types.Finally, we have proposed an approach to evaluate the gap between a data source and itsschema. To this end, we have proposed a setof quality factors and the associated metrics, aswell as a schema extension allowing to reflect the heterogeneity among instances of the sametype. Both factors and schema extension are used to analyze and improve the conformity between a schema and the instances it describes
Style APA, Harvard, Vancouver, ISO itp.
10

Taki, Sara. "Anonymisation de données liées en utilisant la confidentialité différentielle". Electronic Thesis or Diss., Bourges, INSA Centre Val de Loire, 2023. http://www.theses.fr/2023ISAB0009.

Pełny tekst źródła
Streszczenie:
Cette thèse étudie le problème de la protection de la vie privée dans le LinkedOpen Data (ou « LOD », en français « web des données ouvertes » ou encore « donnéesliées ouvertes »). Ce travail se situe à l’intersection d’une longue série de travaux sur laconfidentialité des données et le LOD. Notre objectif est d’étudier l’impact des aspectssémantiques sur la publication des données et sur les fuites éventuelles d’information.Nous considérons RDF comme le format de représentation du LOD et la confidentialitédifférentielle (DP) comme le principal critère de protection de la vie privée. La DP a étéinitialement conçue pour définir la confidentialité dans le domaine des bases de donnéesrelationnelle. Elle est basée sur une quantification de la difficulté pour un attaquantd’identifier, en observant le résultat d’un algorithme, quelle base de données parmis unvoisinage a été utilisée pour le produire.Les objectifs de cette thèse sont au nombre de quatre: O1) améliorer la protectiondes données LOD. En particulier, proposer une approache permettant de construire desméchanismes DP utilisables sur RDF ; O2) étudier comment les définitions des voisinagessur les bases de données relationnelles en présence de contraintes de clés étrangères (FK) peuvent être traduites en RDF : O3) proposer de nouvelles définitions de voisinages sur des bases de données relationnelles équivalente à des notions existantes de voisinage sur les graphes (avec une sémantique précise) et O4) proposer un formalisme facilitant laconception et l’implémentation de mécanismes d’anonymisation de données RDF.Concernant O1, nous proposons une nouvelle approche basée sur la projection degraphes pour adapter le concept de DP à RDF. Pour O2, nous déterminons le modèlede protection qui correspond à la traduction de modèles déjà existants pour des basesde données relationnelles sous contraintes FK. Pour O3, nous introduisons le conceptde restrict deletion neighborhood (voisinage d’effacement limité) équivalent envoisinage de type "typed-node" (noeud typé). Nous proposons également une relaxation de la définition permettant de traduite les voisinages "typed-outedge" (arc sortanttypé). Pour O4, nous proposons un langage de transformation de graphes basé sur leconcept de réécriture de graphes, qui sert de fondation pour construire divers mécanismes d’anonymisation sur des graphes attribués.L’ensemble de nos contributions théoriques ont été implémentées par des prototypes"preuve de concept" et ont été évalués sur des jeux de données réels, afin de montrerl’applicabilité de nos travaux à des cas d’usage réels
This thesis studies the problem of privacy in linked open data (LOD). Thiswork is at the intersection of long lines of work on data privacy and linked open data.Our goal is to study how the presence of semantics impacts the publication of data andpossible data leaks. We consider RDF as the format to represent LOD and DifferentialPrivacy (DP) as the main privacy concept. DP was initially conceived to define privacyin the relational database (RDB) domain and is based on a quantification of the difficultyfor an attacker observing an output to identify which database among a neighborhoodis used to produce it.The objective of this thesis is four-fold: O1) to improve the privacy of LOD. Inparticular, to propose an approach to construct usable DP-mechanisms on RDF; O2) tostudy how neighborhood definitions over RDB in the presence of foreign key (FK) constraints translate to RDF; O3) to propose new neighborhood definitions over relationaldatabase translating into existing graph concepts to ease the design of DP mechanisms;and O4) to support the implementation of sanitization mechanisms for RDF graphs witha rigorous formal foundation.For O1, we propose a novel approach based on graph projection to adapt DP toRDF. For O2, we determine the privacy model resulting from the translation of popularprivacy model over RDB with FK constraints to RDF. For O3, we propose the restrictdeletion neighborhood over RDB with FK constraints whose translation to the RDFgraph world is equivalent to typed-node neighborhood. Moreover, we propose a looserdefinition translating to typed-outedge neighborhood. For O4, we propose a graphtransformation language based on graph rewriting to serve as a basis for constructingvarious sanitization mechanisms on attributed graphs.We support all our theoretical contributions with proof-of-concept prototypes thatimplement our proposals and are evaluated on real datasets to show the applicability ofour work
Style APA, Harvard, Vancouver, ISO itp.

Książki na temat "Données RDF"

1

Malu, Emmanuel Kabongo. Les criminels ont-ils des leçons à donner ?: La responsabilité des mobutistes et du MPR dans la guerre d'agression-invasion contre la RDC. [Kinshasa] République démocratique du Congo: Le Fax, 2000.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

OuiaDesign i OuiDesign. Agenda Coiffeur 2021 Prise de RDV : : Carnet de l'organisateur de Rendez-Vous Prise de RDV Journaliers / Intervalles 30 Min - 114 Jours Avec Liste Données Client , Format A4, Broché. Independently Published, 2021.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

idée, Edition GOOD'L. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Części książek na temat "Données RDF"

1

Biet, Christian, Sara Harvey i Agathe Sanjuan. "Postface – Le Programme RCF, de l’archéologie à la futurologie". W Données, recettes & répertoire: La scène en ligne (1680-1793). PubPub, 2020. http://dx.doi.org/10.21428/671d579e.ad4280ba.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Raporty organizacyjne na temat "Données RDF"

1

Bourassa Forcier, Mélanie, Derek Dumont i Hugo Prevosto. Les résidences privées pour aînés (RPA) au Québec : enjeux et opportunités. CIRANO, maj 2024. http://dx.doi.org/10.54932/juaj9460.

Pełny tekst źródła
Streszczenie:
Au Québec, la pandémie de COVID-19 a mis l’accent sur la situation précaire dans laquelle se trouvent les milieux de vie pour personnes aînées, en particulier celle qui prévaut en centre d’hébergement et de soins de longue durée (CHSLD), en ressources intermédiaires et ressources de type familial (RI-RTF) ainsi qu’en résidences privées pour aînés (RPA). Dans ce rapport, les auteurs s’intéressent aux différents modèles de RPA ainsi qu’aux enjeux qui mettent en péril l’accessibilité à un logement ou à des services en RPA, la qualité de ces services et la survie même de certains modèles de RPA. L’étude s’appuie sur un vaste ensemble de données et d’informations incluant des entrevues et sondages réalisés auprès de gestionnaires, de membres du personnel et de résidents de RPA, et des données statistiques sur les RPA obtenues à la suite de demandes d’accès à l’information effectuées auprès du MSSS et de l’ensemble des CISSS/CIUSSS. Les auteurs concluent que la lourdeur administrative et réglementaire — qui s’accroit considérablement depuis les dernières années — est directement liée aux enjeux présents dans l’offre de services en RPA au Québec et à la fermeture de certaines RPA, en particulier les petites RPA.
Style APA, Harvard, Vancouver, ISO itp.
2

Hunter, Janine, Lorraine van Blerk, Thomas d'Aquin Rubambura, Cold Musiwa Mubigalo, Luc Mufano, Wayne Shand, Anabelle i in. Vie de rue dans la ville à la frontière: Des jeunes de la rue racontent leurs vies quotidiennes à Bukavu, RDC. StreetInvest, sierpień 2022. http://dx.doi.org/10.20933/100001259.

Pełny tekst źródła
Streszczenie:
Bukavu, une ville située sur les rives du lac Kivu, à l'est de la République démocratique du Congo (RDC), abrite plus d'un million de personnes, dont de nombreuses personnes déplacées par la pauvreté et les conséquences des conflits armés qui continuent d'affecter l'est du Congo. Plus de 10 000 enfants et jeunes de la rue vivent ici dans des situations de rue. 19 jeunes de la rue ont aidé à créer cette carte narrative en enregistrant toutes les données visuelles et en partageant leurs histoires sur leur vie quotidienne. La carte narrative comprend 9 sections et 2 galeries montrant la vie quotidienne des enfants et des jeunes des rues à Bukavu et le travail de PEDER, partenaire de la société civile Grandir dans la rue, pour les aider. Les chapitres comprennent des détails sur la façon dont les enfants et les jeunes des rues collectent les plastiques sur les rives du lac Kivu pour les vendre, ils cuisinent et partagent de la nourriture ensemble, ou achètent dans des restaurants ou des étals. Les jeunes femmes gagnent leur vie dans le travail du sexe et s'occupent de leurs enfants et les jeunes hommes se détendent, créent des liens et espèrent gagner de l'argent supplémentaire en jouant et en pariant. La langue originale enregistrée dans les vidéos est le swahili, elle a été traduite en anglais et en français pour les deux versions de la carte. Tout le matériel visuel et contextuel a été créé par des jeunes de la rue vivant dans les rues de Bukavu, à savoir : Annabelle, Armel, Baba, Baridi, Bikulo, Cornelia, Diomo, Edouard, Francis, Georges, Ginette, Jasmine, Nicaise, Noah, Remi, Royal, Yvette and Zachary.
Style APA, Harvard, Vancouver, ISO itp.
3

Droits fonciers des communautés en République démocratique du Congo : Résumé des analyses RRI de 2020. Rights and Resources Initiative, październik 2021. http://dx.doi.org/10.53892/okgs5315.

Pełny tekst źródła
Streszczenie:
Ce résumé met en évidence les conclusions de trois études de RRI menées en 2020 et concernant la RDC. Ce document explique ce que ces trois études signifient pour la RDC et tente de fournir aux communautés locales et aux organisations de la société civile (OSC) des données pour faire avancer leur travail de plaidoyer afin d'influencer les réformes futures, et d’aider le gouvernement, les donateurs, le secteur privé et les défenseurs de l'environnement à prendre des décisions informées.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii