Letteratura scientifica selezionata sul tema "Ensemble de données RDF"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Ensemble de données RDF".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Ensemble de données RDF":

1

Clotuche, Raphaël. "L’agglomération de Fanum Martis (Famars) et son territoire". Revue du Nord Tome 104, n. 3 (20 settembre 2023): 53–67. http://dx.doi.org/10.3917/rdn.447.0053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les recherches menées depuis plus de 10 ans dans le cadre d’un PCR concernant l’agglomération de Fanum Martis ont permis de regrouper un ensemble de données issues des fouilles anciennes, mais aussi celles résultant d’opérations archéologiques récentes. Les importantes superficies ouvertes ont amené à constater que l’agencement du cadastre moderne, antérieur aux remembrements du xx e s., était semblable à celui du parcellaire antique. À partir de ces observations, des prospections magnétiques, électriques et multicapteurs ont été conduites pour tenter de déceler l’étendue de cette organisation. Une analyse régressive du cadastre de 1830 de Famars, mais aussi des communes voisines a permis d’étudier la structuration de l’agglomération antique. Elle a ainsi identifié jusqu’où cette structuration influençait le découpage du territoire entourant la partie urbanisée de Fanum Martis . Cet agencement n’a pu être discerné à l’est de la Rhonelle qui mesurait, durant l’Antiquité, plus de 60 m de large, et donc plaçait un obstacle à l’extension de la trame au-delà du cours d’eau. Cette empreinte des axes urbains sur les campagnes alentour a été distinguée sur plus de 700 hectares laissant à supposer que cette emprise dépendait directement du vicus . C’est dans cet espace que devaient être conduites les activités agricoles de Fanum Martis pour subvenir aux besoins de sa population, mais aussi fournir les denrées pour le commerce à plus grande échelle.
2

Colazzo, Dario, François Goasdoué, Ionna Manolescu e Alexandra Roatis. "Analyse de données RDF. Lentilles pour graphes sémantiques". Ingénierie des systèmes d'information 19, n. 4 (28 agosto 2014): 87–117. http://dx.doi.org/10.3166/isi.19.4.87-117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Fayçal, Hamdi, e Si-Said Cherfi Samira. "Une approche pour évaluer la complétude de données RDF". Ingénierie des systèmes d'information 21, n. 3 (28 giugno 2016): 31–52. http://dx.doi.org/10.3166/isi.21.3.31-52.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Maillot, Pierre, Thomas Raimbault, David Genest e Stéphane Loiseau. "Aperçus de recherche : interroger efficacement un ensemble de bases RDF". Document numérique 17, n. 2 (30 agosto 2014): 9–33. http://dx.doi.org/10.3166/dn.17.2.9-32.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Ray, Jean-Claude. "Données censurées et modèles de durées". Recherche et Applications en Marketing (French Edition) 3, n. 2 (giugno 1988): 77–88. http://dx.doi.org/10.1177/076737018800300204.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article présente, de façon non mathématique, un ensemble de modèles statistiques spécialement adaptés à l'étude des durées, lorsque certaines de ces durées sont censurées, c'est-à-dire lorsqu'elles n'ont pas été complètement observées (par exemple du fait de la fin de la période d'observation ou parce que le sujet étudié disparaît de l'échantillon au cours de cette période).
6

Hathout, Nabil. "La question des données en morphologie". Cahiers du Centre de Linguistique et des Sciences du Langage, n. 45 (23 aprile 2016): 123–60. http://dx.doi.org/10.26034/la.cdclsl.2016.513.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Je présente dans cet article un ensemble de réflexions qui ont été menées sous l’impulsion de Marc PLÉNAT, au sein du laboratoire ERSS puis de la composante CLLE/ERSS, sur les données qu’il convient d’utiliser en morphologie1. Cette question générale peut être déclinée selon différents points de vue relatifs à l’objet d’étude, les jeux de données, leur création, leur origine ou leur devenir
7

Bouchard, Diana C. "L’autocorrélation spatiale et les données de santé : une étude préliminaire". Cahiers de géographie du Québec 20, n. 51 (12 aprile 2005): 521–38. http://dx.doi.org/10.7202/021333ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse de l'autocorrélation spatiale cherche à mesurer jusqu'à quel point la variation dans un ensemble de données réparties dans l'espace est due aux relations de contiguïté. Du point de vue mathématique, il existe deux façons d'aborder le problème : l'analyse de variance et le calcul d'un coefficient d'autocorrélation. Dans cette étude, une méthode du deuxième type est appliquée d'abord à un ensemble de carrelages d'essai possédant divers degrés d'autocorrélation spatiale et puis à la distribution spatiale de mortalité due aux maladies chroniques, à Montréal, en 1972. On conclut qu'elles révèlent une autocorrélation faible mais significative par rapport aux données de mortalité, et que d'autres facteurs suggérés dans la littérature récente de la géographie médicale pourraient bien avoir plus d'influence que la contiguïté spatiale elle-même.
8

Dunn, S., J. Bottomley, A. Ali e M. Walker. "Vérification de la qualité de la base de données périnatales Niday pour 2008 : rapport sur un projet d’assurance de la qualité". Maladies chroniques et blessures au Canada 32, n. 1 (dicembre 2011): 36–48. http://dx.doi.org/10.24095/hpcdp.32.1.05f.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction Le présent projet d’assurance qualité vise à déterminer la fiabilité, l’intégralité et l’exhaustivité des données saisies dans la base de données périnatales Niday. Méthodologie La qualité des données a été mesurée en comparant les données réextraites des dossiers des patients aux données entrées à l’origine dans la base de données périnatales Niday. Un échantillon représentatif des hôpitaux de l’Ontario a été sélectionné et un échantillon aléatoire de 100 dossiers mère-enfant appariés a été vérifié pour chaque site. Un sous-ensemble de 33 variables (représentant 96 champs de données) de la base Niday a été choisi pour la réextraction. Résultats Parmi les champs de données pour lesquels le coefficient Kappa de Cohen ou le coefficient de corrélation intraclasse (CCI) a été calculé, 44 % présentaient une concordance excellente ou presque parfaite (au-delà de ce qui pourrait être imputé au hasard). Cependant, environ 17 % d’entre eux ont affiché une concordance inférieure à 95 % et un coefficient Kappa ou un CCI de moins de 60 %, signe d’une concordance presque nulle, médiocre ou modérée (au-delà de ce qui pourrait être imputé au hasard). Analyse L’article présente des recommandations pour améliorer la qualité de ces champs de données.
9

Gagnon, Michel. "Les bibliothèques numériques sont-elles solubles dans le Web sémantique ?" Documentation et bibliothèques 59, n. 3 (11 ottobre 2013): 161–68. http://dx.doi.org/10.7202/1018846ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Web sémantique, et plus particulièrement le réseau Linked Open Data, est appelé à transformer radicalement la manière dont les bibliothèques numériques rendent accessibles leurs documents et les métadonnées sur ceux-ci. Dans cet article, après une brève présentation des principales technologies du Web sémantique, et plus particulièrement du modèle de données RDF sur lequel il repose, nous montrons comment les bibliothèques numériques peuvent s’intégrer au réseau Linked Open Data. Puis nous abordons le problème crucial de l’extraction, à partir de contenus textuels, des métadonnées nécessaires à cette intégration.
10

Le Boeuf, Patrick. "Modélisation conceptuelle de l’information bibliographique et muséologique : CIDOC CRM et FRBRoo". Documentation et bibliothèques 55, n. 4 (18 marzo 2015): 209–14. http://dx.doi.org/10.7202/1029185ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le modèle conceptuel développé par l’IFLA (Fédération internationale des associations de bibliothécaires et de bibliothèques) pour l’information bibliographique, FRBR, fait désormais partie de l’outillage intellectuel des bibliothécaires. La communauté muséologique a également développé un modèle conceptuel pour l’information quelle produit, le CIDOC CRM. L’article expose le travail accompli pour aboutir à un modèle conceptuel commun, de formalisme orienté objet compatible avec le langage RDF, dans la perspective du développement du Web sémantique, dans le cadre duquel une ontologie commune permettra d’exploiter simultanément l’information contenue dans les bases de données bibliographiques et muséographiques.

Tesi sul tema "Ensemble de données RDF":

1

Slama, Olfa. "Flexible querying of RDF databases : a contribution based on fuzzy logic". Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S089/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur la définition d'une approche flexible pour interroger des graphes RDF à la fois classiques et flous. Cette approche, basée sur la théorie des ensembles flous, permet d'étendre SPARQL qui est le langage de requête standardisé W3C pour RDF, de manière à pouvoir exprimer i) des préférences utilisateur floues sur les données (par exemple, l'année de publication d'un album est récente) et sur la structure du graphe (par exemple, le chemin entre deux amis doit être court) et ii) des préférences utilisateur plus complexes, prenant la forme de propositions quantifiées floues (par exemple, la plupart des albums qui sont recommandés par un artiste, sont très bien notés et ont été créés par un jeune ami de cet artiste). Nous avons effectué des expérimentations afin d'étudier les performances de cette approche. L'objectif principal de ces expérimentations était de montrer que le coût supplémentaire dû à l'introduction du flou reste limité/acceptable. Nous avons également étudié, dans un cadre plus général, celui de bases de données graphe, la question de l'intégration du même type de propositions quantifiées floues dans une extension floue de Cypher qui est un langage déclaratif pour l'interrogation des bases de données graphe classiques. Les résultats expérimentaux obtenus montrent que le coût supplémentaire induit par la présence de conditions quantifiées floues dans les requêtes reste également très limité dans ce cas
This thesis concerns the definition of a flexible approach for querying both crisp and fuzzy RDF graphs. This approach, based on the theory of fuzzy sets, makes it possible to extend SPARQL which is the W3C-standardised query language for RDF, so as to be able to express i) fuzzy user preferences on data (e.g., the release year of an album is recent) and on the structure of the data graph (e.g., the path between two friends is required to be short) and ii) more complex user preferences, namely, fuzzy quantified statements (e.g., most of the albums that are recommended by an artist, are highly rated and have been created by a young friend of this artist). We performed some experiments in order to study the performances of this approach. The main objective of these experiments was to show that the extra cost due to the introduction of fuzziness remains limited/acceptable. We also investigated, in a more general framework, namely graph databases, the issue of integrating the same type of fuzzy quantified statements in a fuzzy extension of Cypher which is a declarative language for querying (crisp) graph databases. Some experimental results are reported and show that the extra cost induced by the fuzzy quantified nature of the queries also remains very limited
2

Abbas, Nacira. "Formal Concept Analysis for Discovering Link Keys in the Web of Data". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0202.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Web des données est un espace de données global qui peut être considéré comme une couche supplémentaire au-dessus du Web des documents. Le liage des données est la tâche de découverte des liens d'identité entre les ensembles de données RDF (Resource Description Framework) sur le Web des données. Nous nous intéressons à une approche spécifique pour le liage des données, qui repose sur les “clés de liage”. Cette clé a la forme de deux ensembles de paires de propriétés associées à une paire de classes. Par exemple, la clé de liage ({(designation,titre)},{(designation,titre), (createur,auteur)},(Livre,Roman)) indique que si une instance “a” de la classe “Livre” et “b” de la classe “Roman” partagent au moins une valeur pour les propriétés “createur” et “auteur” et que “a” et “b” ont les mêmes valeurs pour les propriétés “designation” et “titre”, alors “a” et “b” désignent la même entité. Ainsi, (a,owl:sameAs,b) est un lien d'identité sur les deux ensembles de données. Cependant, les clés de liage ne sont pas toujours fournies, et divers algorithmes ont été développés pour découvrir automatiquement ces clés. Les algorithmes découvrent d'abord des “clés de liage candidates”. La qualité de ces candidates est ensuite évaluée à l'aide de mesures appropriées, et les clés de liage valides sont sélectionnées en conséquence. L'Analyse Formelle des Concepts (AFC) a été étroitement associée à la découverte de clés de liage candidates, ce qui a conduit à la proposition d'un algorithme basé sur l'AFC à cette fin. Cependant, les algorithmes de découverte de clés de liage présentent certaines limitations. Premièrement, ils ne spécifient pas explicitement les paires de classes associées aux candidates découvertes, ce qui peut conduire à des évaluations inexactes. De plus, les stratégies de sélection utilisées par ces algorithmes peuvent également produire des résultats moins précis. On observe aussi une redondance parmi les ensembles de candidates découvertes, ce qui complique leur visualisation, évaluation et analyse. Pour remédier à ces limitations, nous proposons d'étendre les algorithmes existants sur plusieurs aspects. Tout d'abord, nous introduisons une méthode basée sur les Pattern Structures, une généralisation de l'AFC pour les données non binaires. Cette approche permet de spécifier explicitement les paires de classes associées à chaque clé de liage candidate. Deuxièmement, basée sur la Pattern Structure proposée, nous présentons deux méthodes de sélection de clés de liage. La première méthode est guidée par les paires de classes associées aux candidates, tandis que la deuxième méthode utilise le treillis générée par la Pattern Structure. Ces deux méthodes améliorent la sélection par rapport à la stratégie existante. Enfin, pour remédier à la redondance, nous introduisons deux méthodes. La première méthode est basée sur une Partition Pattern Structure, qui identifie et fusionne les candidates générant les mêmes partitions. La deuxième méthode est basée sur le clustering hiérarchique, qui groupe les candidates produisant des ensembles de liens similaires en clusters et sélectionne un représentant pour chaque cluster. Cette approche réduit efficacement la redondance parmi les clés de liage candidates
The Web of data is a global data space that can be seen as an additional layer interconnected with the Web of documents. Data interlinking is the task of discovering identity links across RDF (Resource Description Framework) datasets over the Web of data. We focus on a specific approach for data interlinking, which relies on the “link keys”. A link key has the form of two sets of pairs of properties associated with a pair of classes. For example the link key ({(designation,title)},{(designation,title) (creator,author)},(Book,Novel)), states that whenever an instance “a” of the class “Book” and “b” of the class “Novel”, share at least one value for the properties “creator” and “author” and that, “a” and “b” have the same values for the properties “designation” and “title”, then “a” and “b” denote the same entity. Then (a,owl:sameAs,b) is an identity link over the two datasets. However, link keys are not always provided, and various algorithms have been developed to automatically discover these keys. First, these algorithms focus on finding “link key candidates”. The quality of these candidates is then evaluated using appropriate measures, and valid link keys are selected accordingly. Formal Concept Analysis (FCA) has been closely associated with the discovery of link key candidates, leading to the proposal of an FCA-based algorithm for this purpose. Nevertheless, existing algorithms for link key discovery have certain limitations. First, they do not explicitly specify the associated pairs of classes for the discovered link key candidates, which can lead to inaccurate evaluations. Additionally, the selection strategies employed by these algorithms may also produce less accurate results. Furthermore, redundancy is observed among the sets of discovered candidates, which presents challenges for their visualization, evaluation, and analysis. To address these limitations, we propose to extend the existing algorithms in several aspects. Firstly, we introduce a method based on Pattern Structures, an FCA generalization that can handle non-binary data. This approach allows for explicitly specifying the associated pairs of classes for each link key candidate. Secondly, based on the proposed Pattern Structure, we present two methods for link key selection. The first method is guided by the associated pairs of classes of link keys, while the second method utilizes the lattice generated by the Pattern Structure. These two methods improve the selection compared to the existing strategy. Finally, to address redundancy, we introduce two methods. The first method involves Partition Pattern Structure, which identifies and merges link key candidates that generate the same partitions. The second method is based on hierarchical clustering, which groups candidates producing similar link sets into clusters and selects a representative for each cluster. This approach effectively minimizes redundancy among the link key candidates
3

Lesnikova, Tatiana. "Liage de données RDF : évaluation d'approches interlingues". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Web des données étend le Web en publiant des données structurées et liées en RDF. Un jeu de données RDF est un graphe orienté où les ressources peuvent être des sommets étiquetées dans des langues naturelles. Un des principaux défis est de découvrir les liens entre jeux de données RDF. Étant donnés deux jeux de données, cela consiste à trouver les ressources équivalentes et les lier avec des liens owl:sameAs. Ce problème est particulièrement difficile lorsque les ressources sont décrites dans différentes langues naturelles.Cette thèse étudie l'efficacité des ressources linguistiques pour le liage des données exprimées dans différentes langues. Chaque ressource RDF est représentée comme un document virtuel contenant les informations textuelles des sommets voisins. Les étiquettes des sommets voisins constituent le contexte d'une ressource. Une fois que les documents sont créés, ils sont projetés dans un même espace afin d'être comparés. Ceci peut être réalisé à l'aide de la traduction automatique ou de ressources lexicales multilingues. Une fois que les documents sont dans le même espace, des mesures de similarité sont appliquées afin de trouver les ressources identiques. La similarité entre les documents est prise pour la similarité entre les ressources RDF.Nous évaluons expérimentalement différentes méthodes pour lier les données RDF. En particulier, deux stratégies sont explorées: l'application de la traduction automatique et l'usage des banques de données terminologiques et lexicales multilingues. Dans l'ensemble, l'évaluation montre l'efficacité de ce type d'approches. Les méthodes ont été évaluées sur les ressources en anglais, chinois, français, et allemand. Les meilleurs résultats (F-mesure > 0.90) ont été obtenus par la traduction automatique. L'évaluation montre que la méthode basée sur la similarité peut être appliquée avec succès sur les ressources RDF indépendamment de leur type (entités nommées ou concepts de dictionnaires)
The Semantic Web extends the Web by publishing structured and interlinked data using RDF.An RDF data set is a graph where resources are nodes labelled in natural languages. One of the key challenges of linked data is to be able to discover links across RDF data sets. Given two data sets, equivalent resources should be identified and linked by owl:sameAs links. This problem is particularly difficult when resources are described in different natural languages.This thesis investigates the effectiveness of linguistic resources for interlinking RDF data sets. For this purpose, we introduce a general framework in which each RDF resource is represented as a virtual document containing text information of neighboring nodes. The context of a resource are the labels of the neighboring nodes. Once virtual documents are created, they are projected in the same space in order to be compared. This can be achieved by using machine translation or multilingual lexical resources. Once documents are in the same space, similarity measures to find identical resources are applied. Similarity between elements of this space is taken for similarity between RDF resources.We performed evaluation of cross-lingual techniques within the proposed framework. We experimentally evaluate different methods for linking RDF data. In particular, two strategies are explored: applying machine translation or using references to multilingual resources. Overall, evaluation shows the effectiveness of cross-lingual string-based approaches for linking RDF resources expressed in different languages. The methods have been evaluated on resources in English, Chinese, French and German. The best performance (over 0.90 F-measure) was obtained by the machine translation approach. This shows that the similarity-based method can be successfully applied on RDF resources independently of their type (named entities or thesauri concepts). The best experimental results involving just a pair of languages demonstrated the usefulness of such techniques for interlinking RDF resources cross-lingually
4

Tanasescu, Adrian. "Vers un accès sémantique aux données : approche basée sur RDF". Lyon 1, 2007. http://www.theses.fr/2007LYO10069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons à la recherche dans les documents RDF et nous proposons de mettre les bases d'une approche permettant de fournir, pour une requête de l'utilisateur, des réponses plus complètes et en même temps cohérentes. Cette approche consiste essentiellement en une combinaison sémantique des informations en provenance de plusieurs graphes RDF. L'approche proposée adresse principalement les points suivants : (1) déterminer si les graphes RDF sont en contradiction, tout en utilisant les connaissances ontologiques associées, et (2) construire des réponses cohérentes et plus complètes par la combinaisons de graphes RDF qui ne décrivent pas des assertions contradictoires. Nous présentons aussi une plateforme de stockage et interrogation de documents RDF, nommée SyRQuS, dont le moteur de recherche est intégralement construit sur la base d'une approche. La plateforme, basée sur le Web, permet l'interrogation d'une base de données à l'aide du langage de requête SPARQL
The thesis mainly focuses on information retrival through RDF documents querying. Therefore, we propose an approach able to provide complete and pertinent answers to a user formulated SPARQL query. The approach mainly consists of (1) determining, through a similarity measure, whether two RDF graphs are contradictory, by using the associated ontological knowledge, and (2) building pertinent answers through the combination of statements belonging to non contradicting RDF graphs that partially answer a given query. We also present an RDF storage and querying platform, named SyRQuS, whose query answering plan is entirely based on the former proposed querying approach. SyRQuS is a Web based plateform that mainly provides users with a querying interface where queries can be formulated using SPARQL
5

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
6

Ouksili, Hanane. "Exploration et interrogation de données RDF intégrant de la connaissance métier". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un nombre croissant de sources de données est publié sur le Web, décrites dans les langages proposés par le W3C tels que RDF, RDF(S) et OWL. Une quantité de données sans précédent est ainsi disponible pour les utilisateurs et les applications, mais l'exploitation pertinente de ces sources constitue encore un défi : l'interrogation des sources est en effet limitée d'abord car elle suppose la maîtrise d'un langage de requêtes tel que SPARQL, mais surtout car elle suppose une certaine connaissance de la source de données qui permet de cibler les ressources et les propriétés pertinentes pour les besoins spécifiques des applications. Le travail présenté ici s'intéresse à l'exploration de sources de données RDF, et ce selon deux axes complémentaires : découvrir d'une part les thèmes sur lesquels porte la source de données, fournir d'autre part un support pour l'interrogation d'une source sans l'utilisation de langage de requêtes, mais au moyen de mots clés. L'approche d'exploration proposée se compose ainsi de deux stratégies complémentaires : l'exploration thématique et la recherche par mots clés. La découverte de thèmes dans une source de données RDF consiste à identifier un ensemble de sous-graphes, non nécessairement disjoints, chacun représentant un ensemble cohérent de ressources sémantiquement liées et définissant un thème selon le point de vue de l'utilisateur. Ces thèmes peuvent être utilisés pour permettre une exploration thématique de la source, où les utilisateurs pourront cibler les thèmes pertinents pour leurs besoins et limiter l'exploration aux seules ressources composant les thèmes sélectionnés. La recherche par mots clés est une façon simple et intuitive d'interroger les sources de données. Dans le cas des sources de données RDF, cette recherche pose un certain nombre de problèmes, comme l'indexation des éléments du graphe, l'identification des fragments du graphe pertinents pour une requête spécifique, l'agrégation de ces fragments pour former un résultat, et le classement des résultats obtenus. Nous abordons dans cette thèse ces différents problèmes, et nous proposons une approche qui permet, en réponse à une requête mots clés, de construire une liste de sous-graphes et de les classer, chaque sous-graphe correspondant à un résultat pertinent pour la requête. Pour chacune des deux stratégies d'exploration d'une source RDF, nous nous sommes intéressés à prendre en compte de la connaissance externe, permettant de mieux répondre aux besoins des utilisateurs. Cette connaissance externe peut représenter des connaissances du domaine, qui permettent de préciser le besoin exprimé dans le cas d'une requête, ou de prendre en compte des connaissances permettant d'affiner la définition des thèmes. Dans notre travail, nous nous sommes intéressés à formaliser cette connaissance externe et nous avons pour cela introduit la notion de pattern. Ces patterns représentent des équivalences de propriétés et de chemins dans le graphe représentant la source. Ils sont évalués et intégrés dans le processus d'exploration pour améliorer la qualité des résultats
An increasing number of datasets is published on the Web, expressed in languages proposed by the W3C to describe Web data such as RDF, RDF(S) and OWL. The Web has become a unprecedented source of information available for users and applications, but the meaningful usage of this information source is still a challenge. Querying these data sources requires the knowledge of a formal query language such as SPARQL, but it mainly suffers from the lack of knowledge about the source itself, which is required in order to target the resources and properties relevant for the specific needs of the application. The work described in this thesis addresses the exploration of RDF data sources. This exploration is done according to two complementary ways: discovering the themes or topics representing the content of the data source, and providing a support for an alternative way of querying the data sources by using keywords instead of a query formulated in SPARQL. The proposed exploration approach combines two complementary strategies: thematic-based exploration and keyword search. Theme discovery from an RDF dataset consists in identifying a set of sub-graphs which are not necessarily disjoints, and such that each one represents a set of semantically related resources representing a theme according to the point of view of the user. These themes can be used to enable a thematic exploration of the data source where users can target the relevant theme and limit their exploration to the resources composing this theme. Keyword search is a simple and intuitive way of querying data sources. In the case of RDF datasets, this search raises several problems, such as indexing graph elements, identifying the relevant graph fragments for a specific query, aggregating these relevant fragments to build the query results, and the ranking of these results. In our work, we address these different problems and we propose an approach which takes as input a keyword query and provides a list of sub-graphs, each one representing a candidate result for the query. These sub-graphs are ordered according to their relevance to the query. For both keyword search and theme identification in RDF data sources, we have taken into account some external knowledge in order to capture the users needs, or to bridge the gap between the concepts invoked in a query and the ones of the data source. This external knowledge could be domain knowledge allowing to refine the user's need expressed by a query, or to refine the definition of themes. In our work, we have proposed a formalization to this external knowledge and we have introduced the notion of pattern to this end. These patterns represent equivalences between properties and paths in the dataset. They are evaluated and integrated in the exploration process to improve the quality of the result
7

Michel, Franck. "Intégrer des sources de données hétérogènes dans le Web de données". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4002/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le succès du Web de Données repose largement sur notre capacité à atteindre les données stockées dans des silos invisibles du web. Dans les 15 dernières années, des travaux ont entrepris d’exposer divers types de données structurées au format RDF. Dans le même temps, le marché des bases de données (BdD) est devenu très hétérogène avec le succès massif des BdD NoSQL. Celles-ci sont potentiellement d’importants fournisseurs de données liées. Aussi, l’objectif de cette thèse est de permettre l’intégration en RDF de sources de données hétérogènes, et notamment d'alimenter le Web de Données avec les données issues des BdD NoSQL. Nous proposons un langage générique, xR2RML, pour décrire le mapping de sources hétérogènes vers une représentation RDF arbitraire. Ce langage étend des travaux précédents sur la traduction de sources relationnelles, CSV/TSV et XML en RDF. Sur cette base, nous proposons soit de matérialiser les données RDF, soit d'évaluer dynamiquement des requêtes SPARQL sur la base native. Dans ce dernier cas, nous proposons une approche en deux étapes : (i) traduction d’une requête SPARQL en une requête pivot, abstraite, en se basant sur le mapping xR2RML ; (ii) traduction de la requête abstraite en une requête concrète, prenant en compte les spécificités du langage de requête de la BdD cible. Un souci particulier est apporté à l'optimisation des requêtes, aux niveaux abstrait et concret. Nous démontrons l’applicabilité de notre approche via un prototype pour la populaire base MongoDB. Nous avons validé la méthode dans un cas d’utilisation réel issu du domaine des humanités numériques
To a great extent, the success of the Web of Data depends on the ability to reach out legacy data locked in silos inaccessible from the web. In the last 15 years, various works have tackled the problem of exposing various structured data in the Resource Description Format (RDF). Meanwhile, the overwhelming success of NoSQL databases has made the database landscape more diverse than ever. NoSQL databases are strong potential contributors of valuable linked open data. Hence, the object of this thesis is to enable RDF-based data integration over heterogeneous data sources and, in particular, to harness NoSQL databases to populate the Web of Data. We propose a generic mapping language, xR2RML, to describe the mapping of heterogeneous data sources into an arbitrary RDF representation. xR2RML relies on and extends previous works on the translation of RDBs, CSV/TSV and XML into RDF. With such an xR2RML mapping, we propose either to materialize RDF data or to dynamically evaluate SPARQL queries on the native database. In the latter, we follow a two-step approach. The first step performs the translation of a SPARQL query into a pivot abstract query based on the xR2RML mapping of the target database to RDF. In the second step, the abstract query is translated into a concrete query, taking into account the specificities of the database query language. Great care is taken of the query optimization opportunities, both at the abstract and the concrete levels. To demonstrate the effectiveness of our approach, we have developed a prototype implementation for MongoDB, the popular NoSQL document store. We have validated the method using a real-life use case in Digital Humanities
8

Bouhamoum, Redouane. "Découverte automatique de schéma pour les données irrégulières et massives". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG081.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le web des données est un espace dans lequel de nombreuses sources sont publiées et interconnectées, et qui repose sur les technologies du web sémantique. Cet espace offre des possibilités d'utilisation sans précédent, cependant, l'exploitation pertinente des sources qu'il contient est rendue difficile par l'absence de schéma décrivant leur contenu. Des approches de découverte automatique de schéma ont été proposées, mais si elles produisent des schémas de bonne qualité, leur complexité limite leur utilisation pour des sources de données massives. Dans notre travail, nous nous intéressons au problème du passage à l'échelle de la découverte de schéma à partir de sources de données RDF massives dont le schéma est incomplet ou absent. Nous nous intéressons également à l'incrémentalité de ces approches et à la prise en compte de connaissances implicites fournies par une source de données.Notre première contribution consiste en une approche scalable de découverte de schéma qui permet l'extraction des classes décrivant le contenu d'une source de données RDF massive. Pour cela, nous avons d'abord proposé d'extraire une représentation condensée d'une source de données RDF qui servira en entrée du processus de découverte de schéma afin d'en améliorer les performances.Cette représentation est un ensemble de patterns qui correspondent à des combinaisons de propriétés décrivant les entités du jeu de données.Nous avons ensuite proposé une approche scalable de découverte de schéma fondée sur un algorithme de clustering distribué qui forme des groupes d'entités structurellement similaires représentant les classes du schéma.Notre deuxième contribution a pour but de maintenir le schéma extrait cohérent avec les changements survenant au niveau des sources RDF, ces dernières étant en constante évolution. Nous proposons pour cela une approche incrémentale de découverte de schéma qui modifie l'ensemble des classes extraites en propageant dans ces dernières les changements survenus dans les sources.Enfin, dans la troisième contribution de notre travail, nous adaptons notre approche de découverte de schéma afin qu'elle prenne en compte toute la sémantique portée par la source de données, qui est représentée par les triplets explicitement déclarés, mais également tous ceux qui peuvent en être déduits par inférence. Nous proposons une extension permettant de prendre en compte toutes les propriétés d'une entité lors de la découverte de schéma, qu'elles correspondent à des triplets explicites ou implicites, ce qui améliorera la qualité du schéma produit
The web of data is a huge global data space, relying on semantic web technologies, where a high number of sources are published and interlinked. This data space provides an unprecedented amount of knowledge available for novel applications, but the meaningful usage of its sources is often difficult due to the lack of schema describing the content of these data sources. Several automatic schema discovery approaches have been proposed, but while they provide good quality schemas, their use for massive data sources is a challenge as they rely on costly algorithms. In our work, we are interested in both the scalability and the incrementality of schema discovery approaches for RDF data sources where the schema is incomplete or missing.Furthermore, we extend schema discovery to take into account not only the explicit information provided by a data source, but also the implicit information which can be inferred.Our first contribution consists of a scalable schema discovery approach which extracts the classes describing the content of a massive RDF data source.We have proposed to extract a condensed representation of the source, which will be used as an input to the schema discovery process in order to improve its performances.This representation is a set of patterns, each one representing a combination of properties describing some entities in the dataset. We have also proposed a scalable schema discovery approach relying on a distributed clustering algorithm that forms groups of structurally similar entities representing the classes of the schema.Our second contribution aims at maintaining the generated schema consistent with the data source it describes, as this latter may evolve over time. We propose an incremental schema discovery approach that modifies the set of extracted classes by propagating the changes occurring at the source, in order to keep the schema consistent with its evolutions.Finally, the goal of our third contribution is to extend schema discovery to consider the whole semantics expressed by a data source, which is represented not only by the explicitly declared triples, but also by the ones which can be inferred through reasoning. We propose an extension allowing to take into account all the properties of an entity during schema discovery, represented either by explicit or by implicit triples, which will improve the quality of the generated schema
9

Rihany, Mohamad. "Keyword Search and Summarization Approaches for RDF Dataset Exploration". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un nombre croissant de sources de données sont publiées sur le web, exprimées dans les langages proposés par le W3C comme RDF, RDF (S) et OWL. Ces sources représentent un volume de données sans précédent disponible pour les utilisateurs et les applications. Afin d’identifier les sources les plus pertinentes et de les utiliser, il est nécessaire d’en connaître le contenu, par exemple au moyen de requêtes écrites en Sparql, le langage d’interrogation proposé par le W3C pour les sources de données RDF. Mais cela nécessite, en plus de la maîtrise du langage Sparql, de disposer de connaissances sur le contenu de la source en termes de ressources, classes ou propriétés qu’elle contient. L’objectif de ma thèse est d’étudier des approches permettant de fournir un support à l’exploration d’une source de données RDF. Nous avons proposé deux approches complémentaires, la recherche mots-clés et le résumé d’un graphe RDF.La recherche mots-clés dans un graphe RDF renvoie un ou plusieurs sous-graphes en réponse à une requête exprimée comme un ensemble de termes à rechercher. Chaque sous-graphe est l’agrégation d’éléments extraits du graphe initial, et représente une réponse possible à la requête constituée par un ensemble de mots-clés. Les sous-graphes retournés peuvent être classés en fonction de leur pertinence. La recherche par mot-clé dans des sources de données RDF soulève les problèmes suivants : (i) l’identification pour chaque mot-clé de la requête des éléments correspondants dans le graphe considéré, en prenant en compte les différences de terminologies existant entre les mots-clés et les termes utilisés dans le graphe RDF, (ii) la combinaison des éléments de graphes retournés pour construire un sous-graphe résultat en utilisant des algorithmes d’agrégation capable de déterminer la meilleure façon de relier les éléments du graphe correspondant à des mots-clés, et enfin (iii), comme il peut exister plusieurs éléments du graphe qui correspondent à un même mot-clé, et par conséquent plusieurs sous-graphes résultat, il s’agit d’évaluer la pertinence de ces sous-graphes par l’utilisation de métriques appropriées. Dans notre travail, nous avons proposé une approche de recherche par mot-clé qui apporte des solutions aux problèmes ci-dessus.Fournir une vue résumée d’un graphe RDF peut être utile afin de déterminer si ce graphe correspond aux besoins d’un utilisateur particulier en mettant en évidence ses éléments les plus importants ; une telle vue résumée peut faciliter l’exploration du graphe. Dans notre travail, nous avons proposé une approche de résumé originale fondée sur l’identification des thèmes sous-jacents dans un graphe RDF. Notre approche de résumé consiste à extraire ces thèmes, puis à construire le résumé en garantissant que tous les thèmes sont représentés dans le résultat. Cela pose les questions suivantes : (i) comment identifier les thèmes dans un graphe RDF ? (ii) quels sont les critères adaptés pour identifier les éléments les plus pertinents dans les sous-graphes correspondants à un thème ? (iii) comment connecter les éléments les plus pertinents pour créer le résumé d’une thème ? et enfin (iv) comment générer un résumé pour le graphe initial à partir des résumés de thèmes ? Dans notre travail, nous avons proposé une approche qui fournit des réponses à ces questions et qui produit une représentation résumée d’un graphe RDF garantissant que chaque thème y est représenté proportionnellement à son importance dans le graphe initial
An increasing number of datasets are published on the Web, expressed in the standard languages proposed by the W3C such as RDF, RDF (S), and OWL. These datasets represent an unprecedented amount of data available for users and applications. In order to identify and use the relevant datasets, users and applications need to explore them using queries written in SPARQL, a query language proposed by the W3C. But in order to write a SPARQL query, a user should not only be familiar with the query language but also have knowledge about the content of the RDF dataset in terms of the resources, classes or properties it contains. The goal of this thesis is to provide approaches to support the exploration of these RDF datasets. We have studied two alternative and complementary exploration techniques, keyword search and summarization of an RDF dataset. Keyword search returns RDF graphs in response to a query expressed as a set of keywords, where each resulting graph is the aggregation of elements extracted from the source dataset. These graphs represent possible answers to the keyword query, and they can be ranked according to their relevance. Keyword search in RDF datasets raises the following issues: (i) identifying for each keyword in the query the matching elements in the considered dataset, taking into account the differences of terminology between the keywords and the terms used in the RDF dataset, (ii) combining the matching elements to build the result by defining aggregation algorithms that find the best way of linking matching elements, and finally (iii), finding appropriate metrics to rank the results, as several matching elements may exist for each keyword and consequently several graphs may be returned. In our work, we propose a keyword search approach that addresses these issues. Providing a summarized view of an RDF dataset can help a user in identifying if this dataset is relevant to his needs, and in highlighting its most relevant elements. This could be useful for the exploration of a given dataset. In our work, we propose a novel summarization approach based on the underlying themes of a dataset. Our theme-based summarization approach consists of extracting the existing themes in a data source, and building the summarized view so as to ensure that all these discovered themes are represented. This raises the following questions: (i) how to identify the underlying themes in an RDF dataset? (ii) what are the suitable criteria to identify the relevant elements in the themes extracted from the RDF graph? (iii) how to aggregate and connect the relevant elements to create a theme summary? and finally, (iv) how to create the summary for the whole RDF graph from the generated theme summaries? In our work, we propose a theme-based summarization approach for RDF datasets which answers these questions and provides a summarized representation ensuring that each theme is represented proportionally to its importance in the initial dataset
10

Lozano, Aparicio Jose Martin. "Data exchange from relational databases to RDF with target shape schemas". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Resource Description Framework (RDF) est un modèle de graphe utilisé pour publier des données sur le Web à partir de bases de données relationnelles. Nous étudions l'échange de données depuis des bases de données relationnelles vers des graphes RDF avec des schémas de formes cibles. Essentiellement, échange de données modélise un processus de transformation d'une instance d'un schéma relationnel, appelé schéma source, en un graphe RDF contraint par un schéma cible, selon un ensemble de règles, appelé tuple source-cible générant des dépendances. Le graphe RDF obtenu est appelé une solution. Étant donné que les dépendances générant des tuple définissent ce processus de manière déclarative, il peut y avoir de nombreuses solutions possibles ou aucune solution du tout. Nous étudions le système d'échange de données relationnel avec RDF constructive avec des schémas de formes cibles, qui est composé d'un schéma source relationnel, un schéma de formes pour le schéma cible, un ensemble de mappages utilisant des constructeurs IRI. De plus, nous supposons que deux constructeurs IRI ne se chevauchent pas. Nous proposons un langage visuel pour la spécification des correspondances (VML) qui aide les utilisateurs non experts à spécifier des mappages dans ce système. De plus, nous développons un outil appelé ShERML qui effectue l'échange de données avec l'utilisation de VML et pour les utilisateurs qui souhaitent comprendre le modèle derrière les mappages VML, nous définissons R2VML, un langage texte, qui capture VML et présente une syntaxe succincte pour définition des mappages.Nous étudions le problème de la vérification de la consistance: un système d'échange de données est consistent si pour chaque instance de source d'entrée, il existe au moins une solution. Nous montrons que le problème de consistance est coNP-complet et fournissons un algorithme d'analyse statique du système qui permet de décider si le système est consistent ou non.Nous étudions le problème du calcul de réponses certaines. Une réponse est certaine si la réponse tient dans chaque solution. En générale, réponses certaines sont calculées en utilisant d'une solution universelle. Cependant, dans notre contexte, une solution universelle pourrait ne pas exister. Ainsi, nous introduisons la notion de solution de simulation universelle, qui existe toujours et permet de calculer certaines réponses à n'importe quelle classe de requêtes robustes sous simulation. Une de ces classes sont les expressions régulières imbriquées (NRE) qui sont forward c'est-à-dire qui n'utilisent pas l’opération inverse. L'utilisation d'une solution de simulation universelle rend traitable le calcul de réponses certaines pour les NRE (data-complexity).Enfin, nous étudions le problème d'extraction de schéma des formes qui consiste à construire un schéma de formes cibles à partir d'un système constructif d'échange de données relationnel vers RDF sans le schéma de formes cibles. Nous identifions deux propriétés souhaitables d'un bon schéma cible, qui sont la correction c'est-à-dire que chaque graphe RDF produit est accepté par le schéma cible; et la complétude c'est-à-dire que chaque graphe RDF accepté par le schéma cible peut être produit. Nous proposons un algorithme d'extraction qui convient à tout système d'échange de données sans schéma, mais qui est également complet pour une grande classe pratique de systèmes sans schéma
Resource Description Framework (RDF) is a graph data model which has recently found the use of publishing on the web data from relational databases. We investigate data exchange from relational databases to RDF graphs with target shapes schemas. Essentially, data exchange models a process of transforming an instance of a relational schema, called the source schema, to a RDF graph constrained by a target schema, according to a set of rules, called source-to-target tuple generating dependencies. The output RDF graph is called a solution. Because the tuple generating dependencies define this process in a declarative fashion, there might be many possible solutions or no solution at all. We study constructive relational to RDF data exchange setting with target shapes schemas, which is composed of a relational source schema, a shapes schema for the target schema, a set of mappings that uses IRI constructors. Furthermore, we assume that any two IRI constructors are non-overlapping. We propose a visual mapping language (VML) that helps non-expert users to specify mappings in this setting. Moreover, we develop a tool called ShERML that performs data exchange with the use of VML and for users that want to understand the model behind VML mappings, we define R2VML, a text-based mapping language, that captures VML and presents a succinct syntax for defining mappings.We investigate the problem of checking consistency: a data exchange setting is consistent if for every input source instance, there is at least one solution. We show that the consistency problem is coNP-complete and provide a static analysis algorithm of the setting that allows to decide if the setting is consistent or not. We study the problem of computing certain answers. An answer is certain if the answer holds in every solution. Typically, certain answers are computed using a universal solution. However, in our setting a universal solution might not exist. Thus, we introduce the notion of universal simulation solution, which always exists and allows to compute certain answers to any class of queries that is robust under simulation. One such class is nested regular expressions (NREs) that are forward i.e., do not use the inverse operation. Using universal simulation solution renders tractable the computation of certain answers to forward NREs (data-complexity).Finally, we investigate the shapes schema elicitation problem that consists of constructing a target shapes schema from a constructive relational to RDF data exchange setting without the target shapes schema. We identity two desirable properties of a good target schema, which are soundness i.e., every produced RDF graph is accepted by the target schema; and completeness i.e., every RDF graph accepted by the target schema can be produced. We propose an elicitation algorithm that is sound for any schema-less data exchange setting, but also that is complete for a large practical class of schema-less settings

Libri sul tema "Ensemble de données RDF":

1

Berztiss, A. T., e Werner Rheinboldt. Data Structures: Theory and Practice. Elsevier Science & Technology Books, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Ensemble de données RDF":

1

DERYCKE, Marc. "Le vivre ensemble en jeu dans une « famille d’accueil »". In Pratiques de la diversité et de la citoyenneté, 53–64. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5586.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La contribution traitera à partir des données recueillies au cours d’une longue ethnographie de la rencontre de deux déficiences qui font altérité : d’une part, les fréquents troubles du comportement d’enfants retirés à leur famille et placés par le juge dans une famille d’accueil, de l’autre le « handicap socioculturel » (illettrisme) dont ces parents sont frappés. À l’encontre du préjugé dominant, seront-ils capables en dépit de leur ignorance d’insérer dans la loi du vivre ensemble ceux qui leur sont confiés et qui ont vécu un passé chaotique ? Leur succès montrera que cette éducation ne doit rien à l’expertise, mais à une relation éducative respectueuse de l’autonomie dans l’apprentissage de la liberté.
2

WICAKSANA, Arief, Olivier MULLER, Frédéric ROUSSEAU e Arif SASONGKO. "Cohérence des communications lors de la migration de tâches matérielles". In Systèmes multiprocesseurs sur puce 1, 309–43. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch11.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La capacité à stopper, migrer et reprendre une application sur un ensemble de nœuds virtualisés dans le nuage devient un service essentiel où les accélérateurs FPGA offrent de très bonnes performances. Dans ce chapitre, un protocole de communication qui gère les données de communication lors de la migration de tâches entre FPGA est présenté.
3

ROXIN, Ana, e Christophe CASTAING. "Approches pour la modélisation des systèmes complexes". In Le BIM, nouvel art de construire, 107–31. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9110.ch5.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
UML est utilisé pour modéliser les données de systèmes complexes comme les projets d’infrastructures (normes ISO 8000). L’analyse orientée-objet gérait l’héritage, UM utilise la classe comme descripteur pour un ensemble d’objets aux mêmes caractéristiques. Les ontologies décrivent un univers par des classes et des propriétés et permettent la définition des dictionnaires et d’autres ressources intégrées (glossaires) dans un BIM.
4

Clavert, Frédéric. "Patrimoine, _Public History_ et Humanités numériques." In Patrimoine et Humanités numériques, 103–14. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3595.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Entendant ici la « patrimonialisation » numérique comme un processus allant de la numérisation à l’usage large d’un ensemble photographique, cet article explique comment, de 2013 à 2015, le LabEx EHNE a projeté de transformer une série de boîtes de photographies sur plaques de verre en un corpus iconographique numérisé jouant un rôle dans un projet de recherche d’une part, mis à disposition à un public large d’autre part. Dans ce processus, le rôle des méthodologies et outils issus des Humanités numériques est fondamental. Ils ont assuré une base solide et pérenne à la « mise en données » du fonds (sa numérisation et, notamment, l’amélioration des métadonnées), processus indispensable. Ils jouent un rôle de soutien dans le cas des exploitations pédagogiques du fonds. Ils permettent la « [mise en réseau » de ce fonds, par le biais de sa mise en ligne et de son usage dans l’Encyclopédie pour une Histoire nouvelle de l’Europe. La mise en données du fonds grâce aux méthodologies des Humanités numériques est ainsi ce qui permet d’en faire un patrimoine numérique.
5

Shahzad, Aamir, Fazeelat Hanif e Alina Manzoor. "Structural Analysis of Strongly Coupled Dusty Plasma using Molecular Dynamics Simulation". In Advancements in Fine Particle Plasmas [Working Title]. IntechOpen, 2024. http://dx.doi.org/10.5772/intechopen.1002502.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Equilibrium molecular dynamics (EMD) simulation has been used to investigate structural behaviors (order-disorder structures) of three-dimensional (3D) strongly coupled dusty plasmas (SCDPs). The Yukawa (screened coulomb) potential and periodic boundary conditions (PBCs) have been used in the SCDPs algorithm. Two factors have been used to analyze the structural behavior of SCDP which are radial distribution function (RDF), and lattice correlation (LC). The results for these factors have been calculated in a canonical (NVT) ensemble at external electric field strength (E* = 0.03) for different plasma conditions of Coulomb coupling (Γ) and Debye screening parameters (κ) at the number of particles (N = 500). Their results have shown that the 3D SCDP structure moves from a disordered to an ordered state with increasing Γ, and the long-range order moves to high Γ with an increase of κ. In comparison to earlier numerical, experimental, and theoretical data, the obtained results have been found to be more acceptable.
6

MENZAN KOUAKOU, Rodolphe, René SAHI SALIA e Georges GAULITHY KONAN. "Contribution des medias sociaux à la prevention et à la lutte contre les violences conjugales. S'informer par les réseaux sociaux en temps de crise en Côte d'Ivoire." In Les violences de genre et la pandémie Covid-19, 89–98. Editions des archives contemporaines, 2023. http://dx.doi.org/10.17184/eac.7023.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le déclenchement de la pandémie de la Covid-19 a amené les gouvernements africains à adopter une série de mesures visant à limiter la propagation du virus. Parmi ces mesures, figure celle du confinement et des restrictions de mouvement des populations qui ont eu, entre autres, pour corollaire la recrudescence des violences conjugales. Face à la recrudescence des violences faites aux femmes, l’État ivoirien à travers ses structures dédiées à la protection de la femme a mis en œuvre un ensemble de stratégies destinées à apporter une réponse efficace et efficiente aux violences basées sur le genre. Parallèlement aux mesures étatiques, se sont déployées sur les médias sociaux, des initiatives de sensibilisation, de dénonciation et prise en charge des VBG. Cette étude se propose d’analyser la contribution des médias sociaux dans la prévention et la lutte contre les VBG en temps de crise sanitaire, comme celle de la Covid-19. Elle se déroule en Côte d’Ivoire et mobilise deux (02) techniques de collectes de données induisant chacune une technique d’analyse. La première technique fait référence à une analyse documentaire basée sur les statistiques et données dans le domaine des violences basées sur le genre durant les années 2018, 2019, 2020 et 2021. La deuxième technique consiste en une veille informationnelle et mobilise un corpus constitué des témoignages et réactions des populations sur les différents médias sociaux face aux cas de violences conjugales, sur les années 2020 – 2021. Les données recueillies sont ainsi analysées sous des aspects mixtes combinant le qualitatif et le quantitatif. Les résultats de cette étude s’articulent autour de trois points clés. Le premier élément est relatif à la situation des violences conjugales avant et durant la période covid-19. Quant au second point majeur, il concerne la présentation du paysage des réseaux sociaux en Côte d’Ivoire. Enfin, le troisième axe des résultats est consacré à la mise en évidence des fonctions et rôles que revêtent les réseaux sociaux face aux violences conjugales en période de crise sanitaire.
7

BERTUCCI, Marie-Madeleine, e Mounia ILLOURMANNE. "Transcrire un corpus audio dans la perspective de la préservation du patrimoine culturel immatériel." In Corpus audiovisuels, 115–24. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5704.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumés Marie-Madeleine Bertucci L’article a pour objet « l’étude de la mise en mots de la mémoire des « Chibanis » du quartier de la Goutte d’or à Paris » à partir d’un corpus d’entretiens biographiques audio. Ces entretiens ont été réalisés par Jean-Marc Bombeau, dans les locaux de la galerie associative l’Échomusée, située rue Cavé dans le XVIIIe arrondissement de Paris, avec un groupe de Chibanis ou anciens du quartier de 2010 à 2012. Cette étude discursive mémorielle est le sujet de la thèse de Mounia Illourmane. Ces entretiens font émerger la mémoire de ces acteurs sociaux en les conduisant à jeter un regard rétrospectif et réflexif sur leur passé, de leur arrivée à Paris dans les années soixante, dans le cadre d’une immigration de travail jusqu’à leur retraite qui prend effet dans la période contemporaine. Ils autorisent l’émergence d’un processus de patrimonialisation de données mémorielles qui constituent le socle d’un patrimoine immatériel. Les entretiens ont visé à la fois le passé et le présent et ont cherché à mettre en lumière, à travers le travail sur la mémoire, le retour rétrospectif sur le passé, l’historicité du présent et les types de liens sociaux tissés à travers l’expérience de l’exil. Au plan théorique, la réflexion s’inscrit dans la perspective des cultural et des subaltern studies pour mettre en évidence le caractère fragmentaire et discontinu de ces récits mémoriels par le biais d’une étude du lexique privilégié par les énonciateurs. Le patrimoine culturel immatériel, porté par la convention de l’UNESCO du 17 octobre 2003, et sa conservation supposent deux types de questionnements. D’une part, il s’agit de concevoir différemment les politiques patrimoniales, en les envisageant du point de vue des détenteurs du patrimoine et non plus seulement du point de vue des experts, d’autre part d’élaborer des modalités de préservation des données autres que celles du patrimoine matériel, ce sur quoi va porter l’article. Mounia Illourmane Ce sujet m’a été proposé par ma directrice de thèse Marie-Madeleine Bertucci. Jean-Marc Bombeau a mis à notre disposition un ensemble de données brutes (séquences vidéo, bandes son et photos), sauvegardées sur un disque dur. Avec ma directrice de recherche, nous avons conçu un outil de classement, d’indexation et d’arborescence des données pour déterminer la nature et la quantité des matériaux à exploiter. À partir d’une démarche muséale et ethnographique, il s'agit de transcrire un corpus audio dans une perspective de conservation d'archives et de valorisation de données peu accessibles matériellement et s’inscrivant dans le cadre du patrimoine culturel immatériel. Néanmoins au cours de cette tâche, sont apparues certaines difficultés d'ordre technique, étant donné que le corpus n'est pas destiné à cet effet, la prise de son est artisanale ce qui a rendu la transcription plus complexe. Face à des locuteurs non natifs avec un accent prononcé, les logiciels de reconnaissance vocale et de transcription automatique sont inadaptés. Par conséquent, le choix des outils s'est porté sur deux logiciels informatiques, « Express Scribe » et « E-Speaking ». Le premier est un logiciel professionnel de lecture audio conçu pour faciliter la transcription des enregistrements audio. Grâce à cet outil on peut contrôler la vitesse de lecture audio ainsi avoir une lecture à vitesse variable. « E-Speaking » est un logiciel de contrôle et de reconnaissance vocale qui a pour fonction la dictée et l'exécution des tâches sur ordinateur avec la voix de l'utilisateur. On l’a utilisé notamment pour accélérer le travail de transcription des bandes son. L'emploi de ces deux outils a permis la transcription en restant le plus fidèlement possible à l'original tout en tenant compte des nombreuses contraintes d'ordre syntaxique, orthographique et phonologique résultant du caractère oral des données.
8

DIOUF, François Singue, Meissa Birima FALL e Sow MOUHAMADOU. "Site touristique et évolution spatiotemporelle d’un milieu géographique. Exemple de la station balnéaire de Saly Portudal au Sénégal". In Revue Internationale des Sciences Économiques et Sociales (RISES) No. 4, 17–30. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.8164.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le tourisme est, dans sa nature et ses formes, une activité qui inscrit ses conséquences dans une large palette de mutations. En ce qu’il nécessite des infrastructures, de l’espace et draine des flux démographiques importants, ses empreintes sur le milieu recomposent ce dernier. Au Sénégal, le tourisme balnéaire qui a connu une explosion à partir de 1977 avec la création de la station de Saly Portudal y a entraîné des mutations de l’espace et de la temporalité. Cette présente recherche tente de comprendre comment la station balnéaire de Saly Portudal a influencé l’évolution du site ? Notre démonstration s’appuie sur une méthodologie associant recherche documentaire et travaux de terrain qui ont permis d’aboutir à une collecte de données quantitatives et qualitatives. À la lumière des résultats de cette recherche on constate que Saly Portudal a évolué dans l’espace et dans le temps. À ce propos, le site est marqué par une extension continue et un ensemble infrastructurel digne d’une ville moderne. Dans le temps, la nuit, à priori, crainte dans la société sénégalaise est, aujourd’hui, prisée, chérie, grâce à toutes les opportunités qu’elle offre. Le Saly Portudal que nous connaissons aujourd’hui est donc façonné par le tourisme. Dès lors, on peut convenir avec l’exemple de Saly Portudal que le tourisme est producteur d’espace et, en ce sens, peut déterminer l’aménagement du territoire.

Atti di convegni sul tema "Ensemble de données RDF":

1

Watanabe, T. "(Invited) Impacts of RDF, RTN, and Shot Noise on Nanowire Transistor Performance Studied by Ensemble Monte Carlo / Molecular Dynamics Simulation". In 2015 International Conference on Solid State Devices and Materials. The Japan Society of Applied Physics, 2015. http://dx.doi.org/10.7567/ssdm.2015.k-3-1.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

David, Sylvain. "La double fonction de l’eau dans La salle de bain de Jean-Philippe Toussaint". In XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.2528.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le narrateur de La salle de bain (1985) est obsédé par le passage du temps : il contemple ainsi longuement une fissure dans le mur qui surplombe sa baignoire – causée vraisemblablement par l’humidité, et donc par l’eau –, y voyant le reflet de sa propre décrépitude. Ces ravages potentiels exercés par l’élément liquide s’étendent d’ailleurs à la société en son ensemble : en témoignent les visions du personnage de Paris noyé sous la pluie (comparé dès lors à un « aquarium ») ou de Venise submergée par la mer, si ce n’est son intérêt douteux pour le naufrage du Titanic. Cette métaphore filée trouve son apogée dans une scène marquante du roman, où le narrateur, contemplant les gouttes de pluie qui glissent sur sa fenêtre, en tire des conclusions sur « la finalité du mouvement », laquelle serait inéluctablement l’« immobilité ». Les indications données à cet égard peuvent être considérées comme un commentaire métatextuel, cadrant les modalités de traversée du texte. À ceci s’ajoute l’image de l’encre s’écoulant d’un poulpe – animal marin – mal apprêté par l’un des personnages, autre possible illustration de l’écriture, de la fiction qui se crée en dépit de l’adversité. C’est sur cette double nature de la métaphore aquatique, chez Jean-Philippe Toussaint, que portera ma communication. J’y défendrai l’hypothèse comme quoi, dans La salle de bain, l’évocation de l’eau revêt à la fois une dimension négative, en ce qu’elle reflète une usure générale (tant personnelle que collective), et positive, dans la mesure où elle contribue à définir l’écriture et la lecture, et donc, d’une certaine manière, à préciser les moyens mêmes par lesquels il est possible de s’arracher à la stagnation par ailleurs postulée.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.2528

Rapporti di organizzazioni sul tema "Ensemble de données RDF":

1

Bourassa Forcier, Mélanie, Derek Dumont e Hugo Prevosto. Les résidences privées pour aînés (RPA) au Québec : enjeux et opportunités. CIRANO, maggio 2024. http://dx.doi.org/10.54932/juaj9460.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au Québec, la pandémie de COVID-19 a mis l’accent sur la situation précaire dans laquelle se trouvent les milieux de vie pour personnes aînées, en particulier celle qui prévaut en centre d’hébergement et de soins de longue durée (CHSLD), en ressources intermédiaires et ressources de type familial (RI-RTF) ainsi qu’en résidences privées pour aînés (RPA). Dans ce rapport, les auteurs s’intéressent aux différents modèles de RPA ainsi qu’aux enjeux qui mettent en péril l’accessibilité à un logement ou à des services en RPA, la qualité de ces services et la survie même de certains modèles de RPA. L’étude s’appuie sur un vaste ensemble de données et d’informations incluant des entrevues et sondages réalisés auprès de gestionnaires, de membres du personnel et de résidents de RPA, et des données statistiques sur les RPA obtenues à la suite de demandes d’accès à l’information effectuées auprès du MSSS et de l’ensemble des CISSS/CIUSSS. Les auteurs concluent que la lourdeur administrative et réglementaire — qui s’accroit considérablement depuis les dernières années — est directement liée aux enjeux présents dans l’offre de services en RPA au Québec et à la fermeture de certaines RPA, en particulier les petites RPA.
2

Hunter, Janine, Lorraine van Blerk, Thomas d'Aquin Rubambura, Cold Musiwa Mubigalo, Luc Mufano, Wayne Shand, Anabelle et al. Vie de rue dans la ville à la frontière: Des jeunes de la rue racontent leurs vies quotidiennes à Bukavu, RDC. StreetInvest, agosto 2022. http://dx.doi.org/10.20933/100001259.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Bukavu, une ville située sur les rives du lac Kivu, à l'est de la République démocratique du Congo (RDC), abrite plus d'un million de personnes, dont de nombreuses personnes déplacées par la pauvreté et les conséquences des conflits armés qui continuent d'affecter l'est du Congo. Plus de 10 000 enfants et jeunes de la rue vivent ici dans des situations de rue. 19 jeunes de la rue ont aidé à créer cette carte narrative en enregistrant toutes les données visuelles et en partageant leurs histoires sur leur vie quotidienne. La carte narrative comprend 9 sections et 2 galeries montrant la vie quotidienne des enfants et des jeunes des rues à Bukavu et le travail de PEDER, partenaire de la société civile Grandir dans la rue, pour les aider. Les chapitres comprennent des détails sur la façon dont les enfants et les jeunes des rues collectent les plastiques sur les rives du lac Kivu pour les vendre, ils cuisinent et partagent de la nourriture ensemble, ou achètent dans des restaurants ou des étals. Les jeunes femmes gagnent leur vie dans le travail du sexe et s'occupent de leurs enfants et les jeunes hommes se détendent, créent des liens et espèrent gagner de l'argent supplémentaire en jouant et en pariant. La langue originale enregistrée dans les vidéos est le swahili, elle a été traduite en anglais et en français pour les deux versions de la carte. Tout le matériel visuel et contextuel a été créé par des jeunes de la rue vivant dans les rues de Bukavu, à savoir : Annabelle, Armel, Baba, Baridi, Bikulo, Cornelia, Diomo, Edouard, Francis, Georges, Ginette, Jasmine, Nicaise, Noah, Remi, Royal, Yvette and Zachary.
3

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, ottobre 2023. http://dx.doi.org/10.54932/ryht5065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
4

Saulais, Laure, e Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, agosto 2022. http://dx.doi.org/10.54932/ziga3839.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
5

Dudoit, Alain. L’urgence du premier lien : la chaîne d’approvisionnement du Canada au point de rupture, un enjeu de sécurité nationale. CIRANO, giugno 2023. http://dx.doi.org/10.54932/zjzp6639.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La création d’une chaîne d'approvisionnement intelligente est désormais une priorité de sécurité nationale urgente qui ne peut être réalisée sans la mobilisation conjointe différentes parties prenantes au Canada. Elle n’est cependant pas une finalité en soi : la réalisation d’un marché intérieur unique, compétitif, durable et axé sur les consommateurs devrait être le résultat ultime du chantier national nécessaire à la mise en œuvre collaborative des recommandations de trois rapports complémentaires de politiques publiques publiés en 2022 sur l’état de la chaine d’approvisionnement au Canada. Le défi de la chaîne d'approvisionnement est vaste, et il ne fera que se compliquer au fil du temps. Les gouvernements au Canada doivent agir ensemble dès maintenant, en conjonction avec les efforts de collaboration avec nos alliés et partenaires notamment les États-Unis et l’Union Européenne pour assurer la résilience les chaînes d'approvisionnement face à l’accélération des bouleversements, conflits géopolitiques, catastrophes naturelles actuels et anticipés. La position géostratégique du Québec représente un atout majeur et l’investit d’un rôle et d’une responsabilité critiques dans la mise en œuvre non seulement du Rapport final du groupe de travail national sur la chaine d’approvisionnement (« ACT »), mais aussi des recommandations contenues dans le rapport publié par le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et celles contenues dans le rapport du Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités publié à Ottawa en novembre 2022 , « Améliorer l’efficacité et la résilience des chaînes d’approvisionnement du Canada ». La démarche mobilisatrice vers un espace commun des données pour la chaine d’approvisionnement du Canada s’inspire de la vision à terme du corridor économique intelligent d’Avantage Saint-Laurent et repose sur l'expérience acquise grâce à différentes initiatives et programmes mis en œuvre au Canada, aux États-Unis et en Europe, et les intègre tel qu’approprié. Sa mise en œuvre dans une première étape dans le corridor commercial du Saint-Laurent Grands Lacs facilitera l’accès et le partage par la suite des données de l’ensemble de la chaine d’approvisionnement au Canada de manière fiable et sécurisée. Le développement conjoint accéléré d’un espace commun de données changera la donne non seulement dans la résolution des défis critiques de la chaine d’approvisionnement mais aussi dans l’impulsion qu’il générera dans la poursuite de priorités fondamentales au Canada dont celle de la transition énergétique. Ce rapport Bourgogne propose une synthèse en quatre volets : 1. Un survol d’un arrière-plan caractérisé par de nombreuses consultations, annonces de stratégies, mesures et des résultats mitigés. 2. Une analyse croisée des recommandations de trois rapports importants et complémentaires de politiques publiques au niveau fédéral ainsi que de la stratégie québécoise, l’Avantage Saint-Laurent. 3. Une analyse des enjeux fondamentaux de capacité de mobilisation, d’exécution et de sous-utilisation des données. 4. Quelques pistes de solutions opérationnelles pour passer au mode « Action -Collaboration et Transformation (ACT)
6

Ripoll, Santiago, Tabitha Hrynick, Ashley Ouvrier, Megan Schmidt-Sane, Federico Marco Federici e Elizabeth Storer. 10 façons dont les gouvernements locaux en milieu urbain multiculturel peuvent appuyer l’égalité vaccinale en cas de pandémie. SSHAP, gennaio 2023. http://dx.doi.org/10.19088/sshap.2023.001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Si l’on s’en tient aux chiffres de la vaccination contre la COVID-19 dans les pays du G7, la campagne apparaît comme un véritable succès tant au niveau global qu’au niveau national. En effet, à ce jour, 79,4 % de la population totale des pays du G7 a reçu une première dose, 72,9 % une seconde, et 45,4 % une dose de rappel (données du 28 avril 2022) 1 En France, c’est 80,6 % de la population totale qui a reçu une première dose, 78,2 % qui a reçu deux doses, et 55,4 % qui a reçu un rappel (données du 28 avril 2022).2 Au Royaume-Uni, 79,3 % de la population totale a reçu une première dose, 74,1 % une seconde, et 58,5 % un rappel.1 Enfin, en Italie, 85,2 % de la population totale a reçu une première dose, 80,4 % a reçu deux doses et 66,5 % a reçu leurs rappels (données du 28 avril 2022). Ces taux de vaccination élevés masquent pourtant des disparités importantes à l’intérieur de chaque pays. Ainsi, à Marseille, deuxième ville de France, moins de 50 % des habitants des quartiers nord de la ville étaient vaccinés à la fin de l’année 2021, alors que plus de 70 % des habitants des quartiers sud l’étaient au même moment.3 Dans le quartier populaire de Ealing, situé au nord-ouest de Londres, 70 % de la population admissible avait reçu une première dose, soit près de 10 % de moins que la moyenne nationale. 4 (Données du 4 avril 2022). Des disparités similaires ont été observées dans d’autres métropoles urbaines des pays du G7. Ce document examine ces disparités au prisme de la notion d’« (in)égalité vaccinale ». En s’appuyant sur des recherches qualitatives menées pendant la campagne de vaccination de la COVID-19 dans les quartiers nord de Marseille, le quartier de Ealing à Londres (Nord-ouest) et dans la région de l'Émilie-Romagne et à Rome, en Italie, il montre comment les autorités locales peuvent agir pour atténuer ces inégalités. Mieux comprendre les inégalités en matière de vaccins fut primordial lors de la pandémie de la COVID-19 en ce sens que les populations sous-vaccinées étaient la plupart du temps des minorités ethniques ou culturelles, vivant dans des zones défavorisées, ou sans-papiers, donc plus susceptibles de contracter la COVID-19, et d’en subir les conséquences les plus dramatiques. 5 6 7 8 Ainsi, à Ealing, quatre mois après la campagne de vaccination, seulement 57,6% des personnes dans le décile de pauvreté le plus bas avaient reçu une dose, contre 81% des personnes dans le décile le plus aisé. 9 En outre, 89,2 % des résidents britanniques blancs de Ealing étaient vaccinés, contre 64 % des Pakistanais et 49,3 % des habitants issus des Caraïbes.9 À Rome, comme c’est le cas dans d’autres métropoles urbaines des pays du G7, nos données révèlent des disparités particulières importantes entre le recours aux vaccins des populations sans papiers et celui des citoyens établis. Les facteurs d’inégalité vaccinale dans ces environnements urbains sont complexes et liés à l’interaction de nombreux phénomènes tels que les inégalités économiques, le racisme structurel, l'inégalité d'accès aux soins de santé, la méfiance envers les professionnels de santé, les représentants de l'État, et plus encore. Les collectivités locales tout comme les professionnels de la santé, les groupes communautaires et les résidents jouent un rôle clé dans la manière dont s’exprime l’(in)égalité vaccinale. Pour autant, peu de leçons ont été systématiquement tirées des efforts menés en matière d’ «engagement vaccinal » au niveau local. Dans ce document, nous proposons d’expliquer comment l’expérience des inégalités structurelles se recoupe avec celle des habitants, et comment ces expériences ont été prises en compte ou au contraire ignorées dans la promotion et l’administration des vaccins contre la COVID-19 par les collectivités locales. Nous adressons également un ensemble de recommandations qui s’appliquent aux programmes de « vaccination de rattrapage » contre la COVID-19 (visant à atteindre les personnes qui n’ont pas encore reçu leur schéma vaccinal complet), mais elles concernent également les programmes de vaccination d'urgence à venir. Ce document repose sur des recherches menées entre octobre et décembre 2021 à Marseille et sur des échanges réguliers avec les autorités du Borough de Ealing initiés dès mai 2021. Il identifie comment les gouvernements locaux, les acteurs de la santé, les groupes communautaires et les résidents jouent un rôle clé dans la production d’(in)égalités vaccinales. Ce document a été élaboré pour la SSHAP par Santiago Ripoll (IDS), Tavitha Hrynick (IDS), Ashley Ouvrier (LaSSA), Megan Schmidt-Sane (IDS), Federico Federici (UCL) et Elizabeth Storer (LSE). Il a été revu par Eloisa Franchi (Université de Pavie) et Ellen Schwartz (Conseil de santé publique de Hackney). La recherche a été financée par la British Academy COVID-19 Recovery : Fonds G7 (COVG7210038). Les recherches ont été menées à l’Institut d’études du développement (IDS), à l’Université de Sussex et au Laboratoire des sciences sociales appliquées (LaSSA). La SSHAP en assume la responsabilité.

Vai alla bibliografia