Добірка наукової літератури з теми "Liage des données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Liage des données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Liage des données":

1

Ben Gharbia, Abdeljabbar. "Les complétives en arabe classique: entre parataxe et hypotaxe." Arabica 57, no. 5 (2010): 517–35. http://dx.doi.org/10.1163/157005810x519080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
AbstractNous sommes parti dans cet article de la hiérarchie sémantique des différentes classes des verbes introducteurs de complétives propositionnelles, proposée par le linguiste cognitiviste Givón Talmy. Nous avons revu partiellement cette hiérarchie, notamment pour ce qui concerne le milieu et le bas de l’échelle de liage, et ce à partir des données de l’arabe classique<xref ref-type="fn" rid="FN1">1</xref>. Cette révision nous a permis de montrer que le liage sémantique est reflété par le degré d’intégration syntaxique, que l’emploi du muāri manūb (l’inaccompli subjonctif) après an est dû à sa valeur modale, qui permet de situer un processus dans la sphère subjective du possible et de l’éventuel. Cette étude nous a conduit enfin à nous intéresser aux particules an et anna, et à montrer qu’elles ne sont pas des connecteurs subordonnants, mais des opérateurs nominalisateurs qui permettent à un processus d’être conceptualisé comme un objet pour occuper les positions syntaxiques réservées d’ordinaire aux syntagmes nominaux dans une construction propositionnelle plus grande. Tous ces constats nous ont permis de revoir l’opposition entre parataxe et hypotaxe, et de considérer que la nominalisation des processus par le biais des particules an et anna représente un procédé intermédiaire de complexification.
2

Bawin-Legros, B., and M. Sommer. "Famille / Familles : Difficiles et mouvantes typologies." II. La famille ou les familles : objet complexe, insaisissable ?, no. 18 (December 15, 2015): 47–55. http://dx.doi.org/10.7202/1034265ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La diversité actuelle des comportements familiaux pose pour les sociologues et les démographes la difficile question du classement de ces comportements en modèles structurés, c'est-à-dire la construction de typologies cohérentes. Après avoir rappelé quelques étapes marquantes de l'élaboration des typologies de la famille, nous illustrons les difficultés auxquelles se heurte la recherche lorsqu’il s’agit de construire une typologie basée sur des données empiriques. Nous essayons de montrer, à travers des exemples tirés d’enquêtes effectuées à Liège en 1984, 1985 et 1986, comment une mosaïque de situations et de pratiques très diversifiées renvoie à des dynamiques familiales spécifiques, où le temps (biographique et historique) devient une donnée fondamentale.
3

Fontenelle, Thierry. "Towards the Construction of a Collocational Database for Translation Students." Meta 39, no. 1 (September 30, 2002): 47–56. http://dx.doi.org/10.7202/002756ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Cet article présente une expérience effectuée au cours d'un projet d'élaboration d'une base de données bilingue (anglais-français) de collocations à l'Université de Liège. Cette base de données offrira aux utilisateurs plusieurs points d'accès ainsi que des informations lexico-sémantiques. On tentera de démontrer que ces particularités sont présentement absentes dans le domaine des dictionnaires de collocations et que cette base de données réussira à combler ce manque.
4

Derivery, François. "Magritte : les données du problème." Ligeia N° 153-156, no. 1 (2017): 42. http://dx.doi.org/10.3917/lige.153.0042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

SGHAIER, Tahar, Salah GARCHI, and Thouraya AZIZI. "Modélisation de la croissance et la production du liège en Tunisie." BOIS & FORETS DES TROPIQUES 346 (January 11, 2021): 3–20. http://dx.doi.org/10.19182/bft2020.346.a31805.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’absence d’outils nécessaires pour l’estimation des productions, la gestion et l’aménagement des peuplements de chêne-liège (Quercus suber L.) en Tunisie constitue un handicap pour le développement et la conservation de la suberaie dans le pays. Les objectifs de ce travail étaient de préciser l’impact de l’intensité de démasclage des arbres de chêne-liège sur la croissance et la production du liège, d’élaborer des modèles d’estimation de la croissance et la biomasse du liège à l’échelle de l’arbre, et enfin de vérifier des coefficients de démasclage appliqués en Tunisie et leur impact sur la production nationale de liège. Les données collectées proviennent d’un essai multisites de démasclage et de deux inventaires réalisés dans différents chantiers de démasclage durant deux campagnes successives de récolte de liège. Trois sites expérimentaux représentatifs des forêts productives de chêne-liège en Tunisie ont fait l’objet d’un même essai où trois coefficients de démasclage ont été appliqués sur des arbres appartenant à trois classes de diamètre. Des mesures de l’épaisseur du liège à hauteur de poitrine ont été effectuées annuellement durant une rotation de 12 ans, à la fin de laquelle le liège produit sur chaque arbre a été récolté et pesé. Les résultats obtenus ont montré un effet « coefficients de démasclage » non significatif et un effet « classes de diamètre » très hautement significatif sur la croissance en épaisseur du liège. Le poids de liège récolté est affecté significativement par les coefficients de démasclage et les classes de diamètre. Deux modèles de croissance et de biomasse de liège ont été développés à l’échelle de l’arbre avec des précisions respectives de 96 % et 93 %. Les coefficients de démasclage réellement appliqués en Tunisie varient de 0,6 à 3,6 avec une valeur moyenne de 1,7. Les pertes dans les quantités de liège récolté issues des deux inventaires ont été respectivement estimées, en cas d’application des coefficients de démasclage étudiés (2, 2,5 et 3), à 14 %, 32 % et 50 %.
6

Kounellis, Jannis, and Giovanni Lista. "L’intensité dramatique comme donnée positive." Ligeia N° 69-72, no. 2 (2006): 6. http://dx.doi.org/10.3917/lige.069.0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Daniel, Sharon, and Karen O'Rourke. "[Mapping the Database] Trajectoires et perspectives des bases de données." Ligeia N°45-48, no. 1 (2003): 105. http://dx.doi.org/10.3917/lige.045.0105.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Acharki, Siham, Mina Amharref, Pierre-Louis Frison, and Abdes Samed Bernoussi. "CARTOGRAPHIE DES CULTURES DANS LE PÉRIMÈTRE DU LOUKKOS (MAROC) : APPORT DE LA TÉLÉDÉTECTION RADAR ET OPTIQUE." Revue Française de Photogrammétrie et de Télédétection, no. 222 (November 26, 2020): 15–29. http://dx.doi.org/10.52638/rfpt.2020.481.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cet article, nous analysons la possibilité d’amélioration de la classification des cultures dans un périmètre irrigué du nord du Maroc en se basant sur la combinaison des données multi-temporelles de deux satellites (Sentinel-1 et Sentinel-2) avec l’inclusion de neuf indices. Le périmètre concerné (Loukkos), en plus de sa position stratégique, se caractérise par un climat méditerranéen avec une forte valeur écologique. Il présente une intense activité agricole avec une grande diversité des cultures dont le fonctionnement pourrait être affecté par le changement climatique. Afin de quantifier les besoins en eau, nous avons utilisé les séries d’images satellitaires acquises pour la période du 09/2017 au 08/2018. Les cartes produites pour trois niveaux de classification illustrent notre approche. L’étude a montré que les 10 canaux optiques, à 10 et 20 m de résolution spatiale, des données acquises par Sentinel-2 permettent d'obtenir de bonnes performances, avec un indice de kappa > 85% pour les sous-classes et une précision globale > 86%. Ces performances sont supérieures à celles obtenues avec des données radar acquises par Sentinel-1, avec des écarts de F-score inférieurs de 9% en moyenne, et pouvant aller jusqu'à 29% (sur le chêne-liège/Niveau SSC). Ni l'ajout d'indices radiométriques optiques, ni la combinaison des données optiques et radar n'apportent d'amélioration significative aux performances obtenues avec les données Sentinel-2. Afin d’exploiter les données obtenues, les travaux à venir se focaliseraient sur l’étude des profils temporels de chaque type de culture.Mots-clés : Sentinel-1, Sentinel-2, Classification supervisée, Forêt aléatoire, Cultures, Loukkos
9

Baumann, Pierre. "Étant Donnés, la Réplique et Richard Baquié : morphogénèse de la reproductibilité." Ligeia N° 65-68, no. 1 (2006): 54. http://dx.doi.org/10.3917/lige.065.0054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Vierset, Viviane. "Vers un modèle d’apprentissage réflexif. Recueil de traces d’apprentissage formulées dans les log books des stagiaires en médecine." Approches inductives 3, no. 1 (February 17, 2016): 157–88. http://dx.doi.org/10.7202/1035198ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En faculté de médecine de Liège, les étudiants de 3e master en médecine parcourent différents lieux de formation clinique pour intégrer des apprentissages au sein des départements de spécialisations médicales. Depuis l’année académique 2008-2009, un dispositif pédagogique réflexif (Vierset, 2015) est installé au département de Gynécologie-Obstétrique (G-O) pour accompagner les apprentissages des stagiaires lors de leur parcours clinique. La question posée dans cet article est la suivante : comment se manifeste la posture réflexive dans les log books des stagiaires et quelles formes prend-elle dans les traces formulées par les stagiaires? Autrement dit : que nous disent les traces récoltées à ce propos? La méthodologie de la théorisation enracinée (MTE) (Corbin & Strauss, 2014; Glaser, 1965, 1978, 1992; Glaser & Strauss, 1967/2010; Guillemette, 2006; Luckerhoff & Guillemette, 2012) propose une analyse compréhensive et interprétative des données. Les données (dans ce cas, des écrits des stagiaires) sont soumises, les unes après les autres, à une circularité d’analyses multiples afin d’identifier les liens conceptuels qui se construisent entre elles tout en les comparant progressivement les unes aux autres. Ce processus a permis l’émergence de catégories conceptuelles, à la fois enracinées dans le vécu des acteurs de terrain et théorisables (Glaser, 1965), dans le sens où le chercheur les organise petit à petit en une théorie émergeant des données recueillies. Le résultat est présenté sous la forme d’une modélisation des postures réflexives adoptées par les stagiaires qui dessine les différents axes de réflexivité avec leurs seuils menant à la c-ré-action (Vierset, 2015) d’une nouvelle professionnalité ancrée dans une dynamique en changement.

Дисертації з теми "Liage des données":

1

Lesnikova, Tatiana. "Liage de données RDF : évaluation d'approches interlingues." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Web des données étend le Web en publiant des données structurées et liées en RDF. Un jeu de données RDF est un graphe orienté où les ressources peuvent être des sommets étiquetées dans des langues naturelles. Un des principaux défis est de découvrir les liens entre jeux de données RDF. Étant donnés deux jeux de données, cela consiste à trouver les ressources équivalentes et les lier avec des liens owl:sameAs. Ce problème est particulièrement difficile lorsque les ressources sont décrites dans différentes langues naturelles.Cette thèse étudie l'efficacité des ressources linguistiques pour le liage des données exprimées dans différentes langues. Chaque ressource RDF est représentée comme un document virtuel contenant les informations textuelles des sommets voisins. Les étiquettes des sommets voisins constituent le contexte d'une ressource. Une fois que les documents sont créés, ils sont projetés dans un même espace afin d'être comparés. Ceci peut être réalisé à l'aide de la traduction automatique ou de ressources lexicales multilingues. Une fois que les documents sont dans le même espace, des mesures de similarité sont appliquées afin de trouver les ressources identiques. La similarité entre les documents est prise pour la similarité entre les ressources RDF.Nous évaluons expérimentalement différentes méthodes pour lier les données RDF. En particulier, deux stratégies sont explorées: l'application de la traduction automatique et l'usage des banques de données terminologiques et lexicales multilingues. Dans l'ensemble, l'évaluation montre l'efficacité de ce type d'approches. Les méthodes ont été évaluées sur les ressources en anglais, chinois, français, et allemand. Les meilleurs résultats (F-mesure > 0.90) ont été obtenus par la traduction automatique. L'évaluation montre que la méthode basée sur la similarité peut être appliquée avec succès sur les ressources RDF indépendamment de leur type (entités nommées ou concepts de dictionnaires)
The Semantic Web extends the Web by publishing structured and interlinked data using RDF.An RDF data set is a graph where resources are nodes labelled in natural languages. One of the key challenges of linked data is to be able to discover links across RDF data sets. Given two data sets, equivalent resources should be identified and linked by owl:sameAs links. This problem is particularly difficult when resources are described in different natural languages.This thesis investigates the effectiveness of linguistic resources for interlinking RDF data sets. For this purpose, we introduce a general framework in which each RDF resource is represented as a virtual document containing text information of neighboring nodes. The context of a resource are the labels of the neighboring nodes. Once virtual documents are created, they are projected in the same space in order to be compared. This can be achieved by using machine translation or multilingual lexical resources. Once documents are in the same space, similarity measures to find identical resources are applied. Similarity between elements of this space is taken for similarity between RDF resources.We performed evaluation of cross-lingual techniques within the proposed framework. We experimentally evaluate different methods for linking RDF data. In particular, two strategies are explored: applying machine translation or using references to multilingual resources. Overall, evaluation shows the effectiveness of cross-lingual string-based approaches for linking RDF resources expressed in different languages. The methods have been evaluated on resources in English, Chinese, French and German. The best performance (over 0.90 F-measure) was obtained by the machine translation approach. This shows that the similarity-based method can be successfully applied on RDF resources independently of their type (named entities or thesauri concepts). The best experimental results involving just a pair of languages demonstrated the usefulness of such techniques for interlinking RDF resources cross-lingually
2

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
3

Abbas, Nacira. "Formal Concept Analysis for Discovering Link Keys in the Web of Data." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0202.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Web des données est un espace de données global qui peut être considéré comme une couche supplémentaire au-dessus du Web des documents. Le liage des données est la tâche de découverte des liens d'identité entre les ensembles de données RDF (Resource Description Framework) sur le Web des données. Nous nous intéressons à une approche spécifique pour le liage des données, qui repose sur les “clés de liage”. Cette clé a la forme de deux ensembles de paires de propriétés associées à une paire de classes. Par exemple, la clé de liage ({(designation,titre)},{(designation,titre), (createur,auteur)},(Livre,Roman)) indique que si une instance “a” de la classe “Livre” et “b” de la classe “Roman” partagent au moins une valeur pour les propriétés “createur” et “auteur” et que “a” et “b” ont les mêmes valeurs pour les propriétés “designation” et “titre”, alors “a” et “b” désignent la même entité. Ainsi, (a,owl:sameAs,b) est un lien d'identité sur les deux ensembles de données. Cependant, les clés de liage ne sont pas toujours fournies, et divers algorithmes ont été développés pour découvrir automatiquement ces clés. Les algorithmes découvrent d'abord des “clés de liage candidates”. La qualité de ces candidates est ensuite évaluée à l'aide de mesures appropriées, et les clés de liage valides sont sélectionnées en conséquence. L'Analyse Formelle des Concepts (AFC) a été étroitement associée à la découverte de clés de liage candidates, ce qui a conduit à la proposition d'un algorithme basé sur l'AFC à cette fin. Cependant, les algorithmes de découverte de clés de liage présentent certaines limitations. Premièrement, ils ne spécifient pas explicitement les paires de classes associées aux candidates découvertes, ce qui peut conduire à des évaluations inexactes. De plus, les stratégies de sélection utilisées par ces algorithmes peuvent également produire des résultats moins précis. On observe aussi une redondance parmi les ensembles de candidates découvertes, ce qui complique leur visualisation, évaluation et analyse. Pour remédier à ces limitations, nous proposons d'étendre les algorithmes existants sur plusieurs aspects. Tout d'abord, nous introduisons une méthode basée sur les Pattern Structures, une généralisation de l'AFC pour les données non binaires. Cette approche permet de spécifier explicitement les paires de classes associées à chaque clé de liage candidate. Deuxièmement, basée sur la Pattern Structure proposée, nous présentons deux méthodes de sélection de clés de liage. La première méthode est guidée par les paires de classes associées aux candidates, tandis que la deuxième méthode utilise le treillis générée par la Pattern Structure. Ces deux méthodes améliorent la sélection par rapport à la stratégie existante. Enfin, pour remédier à la redondance, nous introduisons deux méthodes. La première méthode est basée sur une Partition Pattern Structure, qui identifie et fusionne les candidates générant les mêmes partitions. La deuxième méthode est basée sur le clustering hiérarchique, qui groupe les candidates produisant des ensembles de liens similaires en clusters et sélectionne un représentant pour chaque cluster. Cette approche réduit efficacement la redondance parmi les clés de liage candidates
The Web of data is a global data space that can be seen as an additional layer interconnected with the Web of documents. Data interlinking is the task of discovering identity links across RDF (Resource Description Framework) datasets over the Web of data. We focus on a specific approach for data interlinking, which relies on the “link keys”. A link key has the form of two sets of pairs of properties associated with a pair of classes. For example the link key ({(designation,title)},{(designation,title) (creator,author)},(Book,Novel)), states that whenever an instance “a” of the class “Book” and “b” of the class “Novel”, share at least one value for the properties “creator” and “author” and that, “a” and “b” have the same values for the properties “designation” and “title”, then “a” and “b” denote the same entity. Then (a,owl:sameAs,b) is an identity link over the two datasets. However, link keys are not always provided, and various algorithms have been developed to automatically discover these keys. First, these algorithms focus on finding “link key candidates”. The quality of these candidates is then evaluated using appropriate measures, and valid link keys are selected accordingly. Formal Concept Analysis (FCA) has been closely associated with the discovery of link key candidates, leading to the proposal of an FCA-based algorithm for this purpose. Nevertheless, existing algorithms for link key discovery have certain limitations. First, they do not explicitly specify the associated pairs of classes for the discovered link key candidates, which can lead to inaccurate evaluations. Additionally, the selection strategies employed by these algorithms may also produce less accurate results. Furthermore, redundancy is observed among the sets of discovered candidates, which presents challenges for their visualization, evaluation, and analysis. To address these limitations, we propose to extend the existing algorithms in several aspects. Firstly, we introduce a method based on Pattern Structures, an FCA generalization that can handle non-binary data. This approach allows for explicitly specifying the associated pairs of classes for each link key candidate. Secondly, based on the proposed Pattern Structure, we present two methods for link key selection. The first method is guided by the associated pairs of classes of link keys, while the second method utilizes the lattice generated by the Pattern Structure. These two methods improve the selection compared to the existing strategy. Finally, to address redundancy, we introduce two methods. The first method involves Partition Pattern Structure, which identifies and merges link key candidates that generate the same partitions. The second method is based on hierarchical clustering, which groups candidates producing similar link sets into clusters and selects a representative for each cluster. This approach effectively minimizes redundancy among the link key candidates
4

Symeonidou, Danai. "Automatic key discovery for Data Linking." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112265/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les dernières années, le Web de données a connu une croissance fulgurante arrivant à un grand nombre des triples RDF. Un des objectifs les plus importants des applications RDF est l’intégration de données décrites dans les différents jeux de données RDF et la création des liens sémantiques entre eux. Ces liens expriment des correspondances sémantiques entre les entités d’ontologies ou entre les données. Parmi les différents types de liens sémantiques qui peuvent être établis, les liens d’identité expriment le fait que différentes ressources réfèrent au même objet du monde réel. Le nombre de liens d’identité déclaré reste souvent faible si on le compare au volume des données disponibles. Plusieurs approches de liage de données déduisent des liens d’identité en utilisant des clés. Une clé représente un ensemble de propriétés qui identifie de façon unique chaque ressource décrite par les données. Néanmoins, dans la plupart des jeux de données publiés sur le Web, les clés ne sont pas disponibles et leur déclaration peut être difficile, même pour un expert.L’objectif de cette thèse est d’étudier le problème de la découverte automatique de clés dans des sources de données RDF et de proposer de nouvelles approches efficaces pour résoudre ce problème. Les données publiées sur le Web sont général volumineuses, incomplètes, et peuvent contenir des informations erronées ou des doublons. Aussi, nous nous sommes focalisés sur la définition d’approches capables de découvrir des clés dans de tels jeux de données. Par conséquent, nous nous focalisons sur le développement d’approches de découverte de clés capables de gérer des jeux de données contenant des informations nombreuses, incomplètes ou erronées. Notre objectif est de découvrir autant de clés que possible, même celles qui sont valides uniquement dans des sous-ensembles de données.Nous introduisons tout d’abord KD2R, une approche qui permet la découverte automatique de clés composites dans des jeux de données RDF pour lesquels l’hypothèse du nom Unique est respectée. Ces données peuvent être conformées à des ontologies différentes. Pour faire face à l’incomplétude des données, KD2R propose deux heuristiques qui per- mettent de faire des hypothèses différentes sur les informations éventuellement absentes. Cependant, cette approche est difficilement applicable pour des sources de données de grande taille. Aussi, nous avons développé une seconde approche, SAKey, qui exploite différentes techniques de filtrage et d’élagage. De plus, SAKey permet à l’utilisateur de découvrir des clés dans des jeux de données qui contiennent des données erronées ou des doublons. Plus précisément, SAKey découvre des clés, appelées "almost keys", pour lesquelles un nombre d’exceptions est toléré
In the recent years, the Web of Data has increased significantly, containing a huge number of RDF triples. Integrating data described in different RDF datasets and creating semantic links among them, has become one of the most important goals of RDF applications. These links express semantic correspondences between ontology entities or data. Among the different kinds of semantic links that can be established, identity links express that different resources refer to the same real world entity. By comparing the number of resources published on the Web with the number of identity links, one can observe that the goal of building a Web of data is still not accomplished. Several data linking approaches infer identity links using keys. Nevertheless, in most datasets published on the Web, the keys are not available and it can be difficult, even for an expert, to declare them.The aim of this thesis is to study the problem of automatic key discovery in RDF data and to propose new efficient approaches to tackle this problem. Data published on the Web are usually created automatically, thus may contain erroneous information, duplicates or may be incomplete. Therefore, we focus on developing key discovery approaches that can handle datasets with numerous, incomplete or erroneous information. Our objective is to discover as many keys as possible, even ones that are valid in subparts of the data.We first introduce KD2R, an approach that allows the automatic discovery of composite keys in RDF datasets that may conform to different schemas. KD2R is able to treat datasets that may be incomplete and for which the Unique Name Assumption is fulfilled. To deal with the incompleteness of data, KD2R proposes two heuristics that offer different interpretations for the absence of data. KD2R uses pruning techniques to reduce the search space. However, this approach is overwhelmed by the huge amount of data found on the Web. Thus, we present our second approach, SAKey, which is able to scale in very large datasets by using effective filtering and pruning techniques. Moreover, SAKey is capable of discovering keys in datasets where erroneous data or duplicates may exist. More precisely, the notion of almost keys is proposed to describe sets of properties that are not keys due to few exceptions
5

Fan, Zhengjie. "Apprentissage de Motifs Concis pour le Liage de Donnees RDF." Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-00986104.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreux jeux de données de données sont publiés sur le web à l'aide des technologies du web sémantique. Ces jeux de données contiennent des données qui représentent des liens vers des ressources similaires. Si ces jeux de données sont liés entre eux par des liens construits correctement, les utilisateurs peuvent facilement interroger les données à travers une interface uniforme, comme s'ils interrogeaient un jeu de données unique. Mais, trouver des liens corrects est très difficile car de nombreuses comparaisons doivent être effectuées. Plusieurs solutions ont été proposées pour résoudre ce problème : (1) l'approche la plus directe est de comparer les valeurs d'attributs d'instances pour identifier les liens, mais il est impossible de comparer toutes les paires possibles de valeurs d'attributs. (2) Une autre stratégie courante consiste à comparer les instances selon les attribut correspondants trouvés par l'alignement d'ontologies à base d'instances, qui permet de générer des correspondances d'attributs basés sur des instances. Cependant, il est difficile d'identifier des instances similaires à travers les ensembles de données car, dans certains cas, les valeurs des attributs en correspondence ne sont pas les mêmes. (3) Plusieurs méthodes utilisent la programmation génétique pour construire des modèles d'interconnexion afin de comparer différentes instances, mais elles souffrent de longues durées d'exécution. Dans cette thèse, une méthode d'interconnexion est proposée pour relier les instances similaires dans différents ensembles de données, basée à la fois sur l'apprentissage statistique et sur l'apprentissage symbolique. L'entrée est constituée de deux ensembles de données, des correspondances de classes sur les deux ensembles de données et un échantillion de liens "positif" ou "négatif" résultant d'une évaluation de l'utilisateur. La méthode construit un classifieur qui distingue les bons liens des liens incorrects dans deux ensembles de données RDF en utilisant l'ensemble des liens d'échantillons évalués. Le classifieur est composé de correspondances d'attributs entre les classes correspondantes et de deux ensembles de données, qui aident à comparer les instances et à établir les liens. Dans cette thèse, le classifieur est appelé motif d'interconnexion. D'une part, notre méthode découvre des correspondances potentielles entre d'attributs pour chaque correspondance de classe via une méthode d'apprentissage statistique : l'algorithme de regroupement K-medoids, en utilisant des statistiques sur les valeurs des instances. D'autre part, notre solution s'appuie sur un modèle d'interconnexion par une méthode d'apprentissage symbolique : l'espace des versions, basée sur les correspondances d'attributs potentielles découvertes et l'ensemble des liens de l'échantillon évalué. Notre méthode peut résoudre la tâche d'interconnexion quand il n'existe pas de motif d'interconnexion combiné qui couvre tous les liens corrects évalués avec un format concis. L'expérimentation montre que notre méthode d'interconnexion, avec seulement 1% des liens totaux dans l'échantillon, atteint une F-mesure élevée (de 0,94 à 0,99). La F-mesure converge rapidement, ameliorant les autres approches de près de 10%.

Книги з теми "Liage des données":

1

Parret, Herman. La voix et son temps: Éléments pour une esthétique de la communication : sept leçons données dans le cadre de la Chaire Francqui au titre belge 1997-1998 à l'Université de Liège. Liège: Editions du C.I.L., Université de Liège, 1998.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Liage des données":

1

Nicole, Quinaux, Evraud Martine, and Noël Françoise. "Formation a L’Utilisation Des Bases de Donnees Sur CD-ROM: Experience de La Bibliotheque de La Faculte de Medecine de L’Universite de Liege." In Information Transfer: New Age — New Ways, 145–47. Dordrecht: Springer Netherlands, 1993. http://dx.doi.org/10.1007/978-94-011-1668-8_33.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Zribi-Hertz, Anne. "Chapitre 7. La théorie standard du liage face aux données de l’anglais." In L’anaphore et les pronoms, 129–51. Presses universitaires du Septentrion, 1996. http://dx.doi.org/10.4000/books.septentrion.116180.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Liage des données":

1

Dubois, Marc. "Le Corbusier et la Belgique / Son Héritage." In LC2015 - Le Corbusier, 50 years later. Valencia: Universitat Politècnica València, 2015. http://dx.doi.org/10.4995/lc2015.2015.896.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé: À la suite de l’exposition de Paris 1925, le peintre René Guiette demande à LC de lui construire une maison avec atelier à Anvers. Ce bâtiment superbe existe encore, le seul témoignage de LC construit en Belgique! LC vient pour la première fois à Bruxelles en 1926 pour donner une conférence. Après une deuxième conférence en 1928 il reçoit une commande de Jean Canneel-Claes pour une maison, publiée par Le Corbusier en 1929 comme « Maison pour M. X à Bruxelles ». En 1930, il est présent à Bruxelles pour le congres CIAM. En 1933, LC participe au concours pour la Rive Gauche d’Anvers. En 1938 on lui demande de participer à l’ exposition de Liège en 1939, mais rien n’est construit. LC est présent à l’exposition Universelle de Bruxelles 1958 avec le pavillon exceptionnel pour Philips. Après l’expo, Le Poème Electronique est démoli. Keywords: LC 5xBelgique, Stynen &amp; De Meyer, deSingel, Riverside Tower. DOI: http://dx.doi.org/10.4995/LC2015.2015.896

До бібліографії