Littérature scientifique sur le sujet « Graphe de recommandation »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Graphe de recommandation ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Graphe de recommandation"

1

Habak, Nawal, Dihia Bouaichi, Hanifa Abbache, Nadia OuldBessi et Ammar Chikouche. « Interest of fasting in the exploration of the lipid balance ». Batna Journal of Medical Sciences (BJMS) 7, no 2 (9 novembre 2020) : 102–4. http://dx.doi.org/10.48087/bjmsoa.2020.7208.

Texte intégral
Résumé :
Introduction. Le bilan lipidique correspond à un ensemble d’analyses permettant de mettre en évidence des anomalies du métabolisme des lipides et d’optimiser la prise en charge diététique et/ou le besoin thérapeutique pour le suivi, la surveillance et l’évaluation du risque athérogène. L’objectif de cette étude est d’évaluer la place du jeûne dans les recommandations pré analytiques du dosage des paramètres lipidiques. Matériels et Méthodes. Notre étude prospective a été réalisée sur 27 prélèvements sanguins sur tube hépariné, des patients en deux temps : à jeun et non à jeun après la prise d’un repas consistant. Le dosage des deux paramètres : Triglycérides et le Cholestérol total, ont été réalisé par la méthode colorimétrique enzymatique. Résultats. Nos résultats ont été classés en deux groupes pour chaque paramètre. L’étude statistique a été réalisée sur le logiciel Graph Pad Prism7. La comparaison des deux groupes TG par l’application du test non paramétrique de Wilcoxon retrouve p<0,0001, ce qui signifie la présence d’une différence significative entre les deux groupes. La comparaison des deux groupes Chol par l’application du test paramétrique test T retrouve p<0,0001, ce qui signifie la présence d’une différence significative entre les deux groupes. Conclusion. À travers cette étude, bien qu’elle soit réalisée sur un faible échantillonnage, nous permet de souligner l’importance du jeûne dans l’analyse des paramètres du bilan lipidique, ce qui concorde avec plusieurs travaux de la littérature qui ont permis d’instaurer le jeûne dans les recommandations lors de l’exploration du métabolisme lipidique.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Philippe, Carole. « Troubles respiratoires obstructifs du sommeil de l’adulte : diagnostic, conséquences et comorbidités ». L'Orthodontie Française 90, no 3-4 (septembre 2019) : 289–99. http://dx.doi.org/10.1051/orthodfr/2019031.

Texte intégral
Résumé :
Introduction : Le syndrome d’apnées-hypopnées obstructives du sommeil (SAHOS) est un collapsus des voies aérifères supérieures (VAS) conduisant à une diminution (hypopnées) ou une interruption du débit aérien (apnées). Depuis son identification il y a seulement une quarantaine d’années, les définitions et les techniques diagnostiques ont évolué, les conséquences de ce syndrome ont été largement étudiées, mais l’établir comme facteur de risque cardiovasculaire (CV) indépendant s’est heurté à l’existence de nombreux facteurs confondants ayant pignon sur rue, telles l’obésité, l’hypertension artérielle (HTA)… Matériels et méthodes : Le diagnostic paraclinique repose sur les résultats de la poly(somno)graphie. Des recommandations sur les techniques de mesures et le codage sont régulièrement éditées, évoluant parallèlement avec les progrès technologiques, dans le but de standardiser et d’assurer la fiabilité du diagnostic. Parallèlement, des études de larges cohortes ont été mises en place à partir des années 1990, permettant un suivi transversal puis longitudinal de milliers de patients. Enfin, les mécanismes physiopathologiques des conséquences du SAHOS ont été explorés. Résultats : Il a été démontré que le SAHOS était responsable d’un risque accidentel particulièrement élevé, imputable à la fragmentation du sommeil induite par les événements respiratoires anormaux. Il a pu être établi une relation statistique indépendante entre SAHOS et pathologies CV, troubles métaboliques et plus récemment le cancer, expliquée majoritairement par l’hypoxie intermittente. Conclusions : Le SAHOS est une maladie fréquente, dont le diagnostic repose sur des signes cliniques et la poly(somno) graphie, établi aujourd’hui comme facteur de risque indépendant de morbi-mortalité (accidentelle et CV).
Styles APA, Harvard, Vancouver, ISO, etc.
3

Kleinschroth, Fritz, Sylvie Gourlet-Fleury, Valéry Gond, Plinio Sist et John R. Healey. « LOGGING ROADS IN TROPICAL FORESTS : SYNTHESIS OF LITERATURE WRITTEN IN FRENCH AND ENGLISH HIGHLIGHTS ENVIRONMENTAL IMPACT REDUCTION THROUGH IMPROVED ENGINEERING ». BOIS & ; FORETS DES TROPIQUES 328, no 328 (20 juillet 2017) : 13. http://dx.doi.org/10.19182/bft2016.328.a31299.

Texte intégral
Résumé :
Les pistes forestières sont considérées comme des causes majeures de dégrada- tion des forêts en raison de leurs impacts directs et indirects sur le fonctionnement et la diversité des écosystèmes. Compte tenu de l’importance de l’exploitation forestière tropi- cale dans le monde, la bonne gestion de l’in- frastructure routière est cruciale pour réduire les impacts environnementaux associés à ces activités tout en réduisant les coûts des opé- rations. Notre étude visait à analyser comment la question des pistes de débardage avait été traitée dans la littérature scientifique. Des études publiées depuis 65 ans, la plupart en français, dans la revue Bois et Forêts des Tro- piques (BFT), ont été comparées à une série d’études plus récentes extraites des bases de données Scopus et Web of Knowledge. La moitié des articles BFT datent d’avant 1972, alors que les bases de données plus géné- ralistes indiquent une augmentation régu- lière, depuis cette date, du nombre d’articles publiés sur ce thème, qui atteint aujourd’hui un niveau record. Sur l’ensemble de la biblio- graphie, nous avons sélectionné, à des fins d’évaluation critique, 126 articles traitant des impacts et de la gestion des pistes forestières tropicales. Les articles de BFT se caractérisent par une attention particulière portée à des questions pratiques d’ingénierie, tandis que de nombreux articles rédigés en anglais se concentrent sur l’identification des impacts sur les écosystèmes forestiers. Les impacts environnementaux liés aux pistes forestières proviennent de la destruction du couvert pen- dant leur construction, de l’accroissement des effets de lisière, de l’érosion des sols, de la perturbation de la faune et de l’accès plus facile aux forêts pour la chasse et la colonisa- tion agricole. Nous présentons, sur la base de cette revue de la littérature, une liste de recommandations permettant de réduire ces impacts. En conclusion, nous constatons, que malgré l’intérêt continu pour le sujet des pistes forestières, nous savons très peu de choses sur leur devenir à long terme dans les paysages forestiers.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Graphe de recommandation"

1

Slaimi, Fatma. « Découverte et recommandation de services Web ». Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0069.

Texte intégral
Résumé :
Le Web est devenu une plateforme universelle d’hébergement d'applications hétérogènes. Dans ce contexte, les services Web se sont imposés comme une technologie clé pour permettre l’interaction entre diverses applications. Les technologies standards proposées autour des services Web permettent la programmation, plutôt manuelle, de ces applications. Pour favoriser une programmation automatique à base de services web, un problème majeur se pose : celui de leur découverte. Plusieurs approches adressant ce problème ont été proposées dans la littérature. L’objectif de cette thèse est d’améliorer le processus de découverte de services en exploitant trois pistes de recherche. La première consiste à proposer une approche de découverte qui combine plusieurs techniques de matching. La deuxième se base sur une validation des services retournés par un processus de découverte automatique en se basant sur les compétences utilisateurs. Ces approches ne prennent pas en considération l’évolution de services dans le temps et les préférences des utilisateurs. Pour remédier à ces lacunes plusieurs approches incorporent des techniques de recommandation. La majorité d'entre eux sont basées sur les évaluations des propriétés de QdS. Pratiquement, ces évaluations sont rarement disponibles. D’autres systèmes exploitent les relations de confiance. Ces relations sont établies en se basant sur les évaluations de services. Or, invoquant le même service ne signifie pas obligatoirement avoir les mêmes préférences. D’où, nous proposons, l’exploitation des relations d’intérêts entre les utilisateurs pour recommander des services. L’approche s’appuie sur une modélisation orientée base de données graphes
The Web has become an universal platform for content hosting and distributed heterogeneous applications that can be accessed manually or automatically. In this context, Web services have established themselves as a key technology for deploying interactions across applications. The standard Web services technologies allow and facilitate the manual programming of these applications. To promote automatic programming based on Web services, a major problem arises : that of their discovery. Several approaches addressing this problem have been proposed in the literature. The aim of this thesis is to improve the Web services discovery process. We proposed three approaches. We proposed a Web services discovery approach that combines several matching techniques. The second consists on the validation of the services returned by an automatic process of discovery using users’ competencies. These approaches do not take into account the evolution of services over time and user preferences. To address these shortcomings, several approaches incorporate referral techniques to assist the discovery process. A large majority of these approaches are based on assessments of QoS properties. In practice, these assessments are rarely available. In other systems, trust relationships between users and services are used. These relationships are established based on invocations evaluations of similar services. However, invoking the same service do not necessarily mean having the same preferences. Hence, we propose, in our third approach, the use of the relations of interest between users to recommend services. The approach relies on modeling services’ ecosystem by database graphs
Styles APA, Harvard, Vancouver, ISO, etc.
2

Nzekon, Nzeko'o Armel Jacques. « Système de recommandation avec dynamique temporelle basée sur les flots de liens ». Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS454.

Texte intégral
Résumé :
La recommandation des produits appropriés aux clients est cruciale dans de nombreuses plateformes de e-commerce qui proposent un grand nombre de produits. Les systèmes de recommandation sont une solution favorite pour la réalisation de cette tâche. La majorité des recherches de ce domaine reposent sur des notes explicites que les utilisateurs attribuent aux produits, alors que la plupart du temps ces notes ne sont pas disponibles en quantité suffisante. Il est donc important que les systèmes de recommandation utilisent les données implicites que sont des flots de liens représentant les relations entre les utilisateurs et les produits, c'est-à-dire l'historique de navigation, des achats et de streaming. C'est ce type de données implicites que nous exploitons. Une approche populaire des systèmes de recommandation consiste, pour un entier N donné, à proposer les N produits les plus pertinents pour chaque utilisateur : on parle de recommandation top-N. Pour ce faire, bon nombre de travaux reposent sur des informations telles que les caractéristiques des produits, les goûts et préférences antérieurs des utilisateurs et les relations de confiance entre ces derniers. Cependant, ces systèmes n'utilisent qu'un ou deux types d'information simultanément, ce qui peut limiter leurs performances car l'intérêt qu'un utilisateur a pour un produit peut à la fois dépendre de plus de deux types d'information. Pour remédier à cette limite, nous faisons trois propositions dans le cadre des graphes de recommandation. La première est une extension du Session-based Temporal Graph (STG) introduit par Xiang et al., et qui est un graphe dynamique combinant les préférences à long et à court terme des utilisateurs, ce qui permet de mieux capturer la dynamique des préférences de ces derniers. STG ne tient pas compte des caractéristiques des produits et ne fait aucune différence de poids entre les arêtes les plus récentes et les arêtes les plus anciennes. Le nouveau graphe proposé, Time-weight content-based STG contourne les limites du STG en y intégrant un nouveau type de nœud pour les caractéristiques des produits et une pénalisation des arêtes les plus anciennes. La seconde contribution est un système de recommandation basé sur l'utilisation de Link Stream Graph (LSG). Ce graphe est inspiré d'une représentation des flots de liens et a la particularité de considérer le temps de manière continue contrairement aux autres graphes de la littérature, qui soit ignore la dimension temporelle comme le graphe biparti classique (BIP), soit considère le temps de manière discontinue avec un découpage du temps en tranches comme STG
Recommending appropriate items to users is crucial in many e-commerce platforms that propose a large number of items to users. Recommender systems are one favorite solution for this task. Most research in this area is based on explicit ratings that users give to items, while most of the time, ratings are not available in sufficient quantities. In these situations, it is important that recommender systems use implicit data which are link stream connecting users to items while maintaining timestamps i.e. users browsing, purchases and streaming history. We exploit this type of implicit data in this thesis. One common approach consists in selecting the N most relevant items to each user, for a given N, which is called top-N recommendation. To do so, recommender systems rely on various kinds of information, like content-based features of items, past interest of users for items and trust between users. However, they often use only one or two such pieces of information simultaneously, which can limit their performance because user's interest for an item can depend on more than two types of side information. To address this limitation, we make three contributions in the field of graph-based recommender systems. The first one is an extension of the Session-based Temporal Graph (STG) introduced by Xiang et al., which is a dynamic graph combining long-term and short-term preferences in order to better capture user preferences over time. STG ignores content-based features of items, and make no difference between the weight of newer edges and older edges. The new proposed graph Time-weight Content-based STG addresses STG limitations by adding a new node type for content-based features of items, and a penalization of older edges. The second contribution is the Link Stream Graph (LSG) for temporal recommendations. This graph is inspired by a formal representation of link stream, and has the particularity to consider time in a continuous way unlike others state-of-the-art graphs, which ignore the temporal dimension like the classical bipartite graph (BIP), or consider time discontinuously like STG where time is divided into slices. The third contribution in this thesis is GraFC2T2, a general graph-based framework for top-N recommendation. This framework integrates basic recommender graphs, and enriches them with content-based features of items, users' preferences temporal dynamics, and trust relationships between them. Implementations of these three contributions on CiteUlike, Delicious, Last.fm, Ponpare, Epinions and Ciao datasets confirm their relevance
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ruas, Olivier. « The many faces of approximation in KNN graph computation ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S088/document.

Texte intégral
Résumé :
La quantité incroyable de contenu disponible dans les services en ligne rend le contenu intéressant incroyablement difficile à trouver. La manière la plus emblématique d’aider les utilisateurs consiste à faire des recommandations. Le graphe des K-plus-proches-voisins (K-Nearest-Neighbours (KNN)) connecte chaque utilisateur aux k autres utilisateurs qui lui sont les plus similaires, étant donnée une fonction de similarité. Le temps de calcul d’un graphe KNN exact est prohibitif dans les services en ligne. Les approches existantes approximent l’ensemble de candidats pour chaque voisinage pour diminuer le temps de calcul. Dans cette thèse, nous poussons plus loin la notion d’approximation : nous approximons les données de chaque utilisateur, la similarité et la localité de données. L’approche obtenue est nettement plus rapide que toutes les autres
The incredible quantity of available content in online services makes content of interest incredibly difficult to find. The most emblematic way to help the users is to do item recommendation. The K-Nearest-Neighbors (KNN) graph connects each user to its k most similar other users, according to a given similarity metric. The computation time of an exact KNN graph is prohibitive in online services. Existing approaches approximate the set of candidates for each user’s neighborhood to decrease the computation time. In this thesis we push farther the notion of approximation : we approximate the data of each user, the similarity and the data locality. The resulting approach clearly outperforms all the other ones
Styles APA, Harvard, Vancouver, ISO, etc.
4

Peoples, Bruce E. « Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation ». Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080023.

Texte intégral
Résumé :
.../
“Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6
Styles APA, Harvard, Vancouver, ISO, etc.
5

Poulain, Rémy. « Analyse et modélisation de la diversité des structures relationnelles à l'aide de graphes multipartis ». Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS453.

Texte intégral
Résumé :
Il n’est plus à prouver que le numérique, Internet et le web ont entraîné une révolution notamment dans la manière de s’informer. Comme toute révolution, elle est suivie par une série d’enjeux : égalité de traitement des utilisateurs et des fournisseurs, consommations écologiquement durables, liberté d’expression et censure, etc. Il est nécessaire que la recherche apporte une vision claire de ces enjeux. Parmi ces enjeux, nous pouvons parler de deux phénomènes : le phénomène de chambre d’écho et le phénomène de bulle de filtre. Ces deux phénomènes sont liés au manque de diversité de l’information visible sur internet, et on peut se demander l’impact des algorithmes de recommandations. Même si ceci est notre motivation première, nous nous éloignons de ce sujet pour proposer un cadre scientifique général pour analyser la diversité. Nous trouvons que le formalisme de graphe est assez utile pour pouvoir représenter des données relationnelles. Plus précisément, nous allons analyser des données relationnelles avec des entités de différentes natures. C’est pourquoi nous avons choisi le formalisme de graphe n-partie car c’est une bonne manière de représenter une grande diversité de données. Même si nos premières données étudiées seront en lien avec les algorithmes de recommandation (consommation musicale ou achat d’article sur une plateforme) nous allons voir au fil du manuscrit en quoi ce formalisme peut être adapté à d’autres types de données (utilisateurs politisés sur Twitter, invités d’émissions de télévision, installation d’ONG dans différents États...). Il y a plusieurs objectifs dans cette étude : — Définir mathématiquement des indicateurs de diversité sur les graphes n-parties. — Définir algorithmiquement comment les calculer. — Programmer ces algorithmes pour en faire un objet informatique utilisable. — Utiliser ces programmes sur des données assez variées. — Voir les sens différents que nos indicateurs peuvent avoir. Nous commencerons par décrire le formalisme mathématique nécessaire à notre étude. Puis nous appliquerons notre objet mathématique à des exemples de base pour y voir toutes les possibilités que notre objet nous offre. Ceci nous montrera l’importance de normaliser nos indicateurs, et nous motivera à étudier une normalisation par l’aléatoire. Ensuite nous verrons une autre série d’exemples qui nous permettrons d’aller plus loin sur nos indicateurs, en dépassant le coté statique et tripartie pour aborder des graphes avec plus de couches et dépendant du temps. Pour pouvoir avoir une meilleure vision de ce que les données réelles nous apportent, nous étudierons nos indicateurs sur des graphes complètement générés aléatoirement
There is no longer any need to prove that digital technology, the Internet and the web have led to a revolution, particularly in the way people get information. Like any revolution, it is followed by a series of issues : equal treatment of users and suppliers, ecologically sustainable consumption, freedom of expression and censorship, etc. Research needs to provide a clear vision of these stakes. Among these issues, we can talk about two phenomena : the echo chamber phenomenon and the filter bubble phenomenon. These two phenomena are linked to the lack of diversity of information visible on the Internet, and one may wonder about the impact of recommendation algorithms. Even if this is our primary motivation, we are moving away from this subject to propose a general scientific framework to analyze diversity. We find that the graph formalism is useful enough to be able to represent relational data. More precisely, we will analyze relational data with entities of different natures. This is why we chose the n-part graph formalism because this is a good way to represent a great diversity of data. Even if the first data we studied is related to recommendation algorithms (music consumption or purchase of articles on a platform) we will see over the course of the manuscript how this formalism can be adapted to other types of data (politicized users on Twitter, guests of television shows, establishment of NGOs in different States ...). There are several objectives in this study : — Mathematically define diversity indicators on the n-part graphs. — Algorithmically define how to calculate them. — Program these algorithms to make them a usable computer object. — Use these programs on quite varied data. — See the different meanings that our indicators can have. We will begin by describing the mathematical formalism necessary for our study. Then we will apply our mathematical object to basic examples to see all the possibilities that our object offers us. This will show us the importance of normalizing our indicators, and will motivate us to study random normalization. Then we will see another series of examples which will allow us to go further on our indicators, going beyond the static and tripartite side to approach graphs with more layers and depending on time. To be able to have a better vision of what the real data brings us, we will study our indicators on completely randomly generated graphs
Styles APA, Harvard, Vancouver, ISO, etc.
6

Dadoun, Amine. « Semantic data driven approach for merchandizing optimization ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS191.

Texte intégral
Résumé :
L'objectif général de ce doctorat consiste à explorer et proposer de nouvelles approches s'appuyant sur un grand volume de données hétérogènes qui doivent être intégrées et enrichies sémantiquement, et sur les progrès récents dans les techniques d'apprentissage automatique et profond, afin d'exploiter à la fois la variété accrue d'offres qu'une compagnie aérienne peut faire à ses clients ainsi que la connaissance qu'elle a de ses clients dans le but ultime d'optimiser la conversion et l'achat. L'objectif général de cette thèse peut être décomposé en trois questions de recherche principales : 1) Quel élément de contenu (services auxiliaires, contenu tiers) devrait être recommandé et personnalisé à chaque voyageur ? 2) Quand une recommandation doit-elle être faite et pour quel canal de communication afin d'optimiser la conversion ? 3) Comment regrouper les services auxiliaires et le contenu tiers et pouvons-nous apprendre ce qui va souvent ensemble selon les journaux d'achat ?
The overall objective of this PhD is to explore and propose new approaches leveraging a large volume of heterogeneous data that needs to be integrated and semantically enriched, and recent advances in machine and deep learning techniques, in order to exploit both the increased variety of offers that an airline can make to its customers as well as the knowledge it has of its customers with the ultimate goal of optimizing conversion and purchase. The overall goal of this thesis can be broken down into three main research questions: 1) What piece of content (ancillary services, third-party content) should be recommended and personalized to each traveler? 2) When should a recommendation be made and for which communication channel to optimize conversion? 3) How do we group ancillary services and third-party content and can we learn what often goes together based on purchase logs?
Styles APA, Harvard, Vancouver, ISO, etc.
7

Lully, Vincent. « Vers un meilleur accès aux informations pertinentes à l’aide du Web sémantique : application au domaine du e-tourisme ». Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUL196.

Texte intégral
Résumé :
Cette thèse part du constat qu’il y a une infobésité croissante sur le Web. Les deux types d’outils principaux, à savoir le système de recherche et celui de recommandation, qui sont conçus pour nous aider à explorer les données du Web, connaissent plusieurs problématiques dans : (1) l’assistance de la manifestation des besoins d’informations explicites, (2) la sélection des documents pertinents, et (3) la mise en valeur des documents sélectionnés. Nous proposons des approches mobilisant les technologies du Web sémantique afin de pallier à ces problématiques et d’améliorer l’accès aux informations pertinentes. Nous avons notamment proposé : (1) une approche sémantique d’auto-complétion qui aide les utilisateurs à formuler des requêtes de recherche plus longues et plus riches, (2) des approches de recommandation utilisant des liens hiérarchiques et transversaux des graphes de connaissances pour améliorer la pertinence, (3) un framework d’affinité sémantique pour intégrer des données sémantiques et sociales pour parvenir à des recommandations qualitativement équilibrées en termes de pertinence, diversité et nouveauté, (4) des approches sémantiques visant à améliorer la pertinence, l’intelligibilité et la convivialité des explications des recommandations, (5) deux approches de profilage sémantique utilisateur à partir des images, et (6) une approche de sélection des meilleures images pour accompagner les documents recommandés dans les bannières de recommandation. Nous avons implémenté et appliqué nos approches dans le domaine du e-tourisme. Elles ont été dûment évaluées quantitativement avec des jeux de données vérité terrain et qualitativement à travers des études utilisateurs
This thesis starts with the observation that there is an increasing infobesity on the Web. The two main types of tools, namely the search engine and the recommender system, which are designed to help us explore the Web data, have several problems: (1) in helping users express their explicit information needs, (2) in selecting relevant documents, and (3) in valuing the selected documents. We propose several approaches using Semantic Web technologies to remedy these problems and to improve the access to relevant information. We propose particularly: (1) a semantic auto-completion approach which helps users formulate longer and richer search queries, (2) several recommendation approaches using the hierarchical and transversal links in knowledge graphs to improve the relevance of the recommendations, (3) a semantic affinity framework to integrate semantic and social data to yield qualitatively balanced recommendations in terms of relevance, diversity and novelty, (4) several recommendation explanation approaches aiming at improving the relevance, the intelligibility and the user-friendliness, (5) two image user profiling approaches and (6) an approach which selects the best images to accompany the recommended documents in recommendation banners. We implemented and applied our approaches in the e-tourism domain. They have been properly evaluated quantitatively with ground-truth datasets and qualitatively through user studies
Styles APA, Harvard, Vancouver, ISO, etc.
8

Benchettara, Nasserine. « Prévision de nouveaux liens dans les réseaux d'interactions bipartis : Application au calcul de recommandation ». Paris 13, 2011. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2011_benchettara.pdf.

Texte intégral
Résumé :
Dans cette thèse, nous étudions le problème de la prévision d'apparition de nouveaux liens dans les réseaux d'interactions. Nous nous intéressons en particulier aux réseaux dynamiques ayant une structure bipartite. Nous proposons un modèle de prévision de liens utilisant les techniques d'apprentissage automatique supervisé. Le problème de prévision de liens est considéré dans ce cas comme un problème de classification binaire. Notre approche applique un schéma de propositionnalisation où chaque paire de noeuds est décrite par un ensemble d'attributs représentant des mesures topologiques. Ces mesures sont calculées dans le graphe biparti et dans les graphes projetés qui en découlent. Nous montrons que ces nouvelles similarités dites " indirectes " apportent un gain d'information bénéfique par rapport aux seules similarités directes. Cette thèse apporte aussi de nouvelles solutions au problème de déséquilibre des données dû à la disproportion inhérente entre le nombre de liens qui peuvent se former et le nombre de liens qui se forment réellement. Nous proposons tout d'abord d'utiliser des méthodes de sous-échantillonnage informé pour réduire le déséquilibre. Une deuxième solution au niveau algorithmique consiste en une approche d'apprentissage semi-supervisé. Dans ce cas, le problème de prévision de liens est vu comme un problème d'apprentissage à partir d'un ensemble d'instances étiquetées (classe minoritaire) et un ensemble d'instances non-étiquetées (classe majoritaire). Nous montrons que cette nouvelle approche permet d'améliorer les performances du classifieur sur la classe minoritaire. Les différentes approches proposées sont appliquées sur les données réelles dans le cadre de deux applications : recommandation de collaborations académiques et recommandation de produits dans un site de vente de musique en ligne
In this work, we handle the problem of new link prediction in dynamic complex networks. We mainly focus on studying networks having a bipartite underlaying structure. We propose to apply a propositionnalization approach where each couple of nodes in the network is described by a set of topological measures. One first contribution in this thesis is to consider measures computed in the bipartite graph and also in the associated projected graphs. A supervised machine learning approach is applied. This approach though it gives some good results, suffers from the obvious problem of class skewness. We hence focus on handling this problem. Informed sub-sampling approaches are first proposed. A semi-supervised machine learning approach is also applied. All proposed approaches are applied and evaluated on real datasets used in real application of academic collaboration recommendation and product recommendation in an e-commerce site
Styles APA, Harvard, Vancouver, ISO, etc.
9

Draidi, Fady. « Recommandation Pair-à-Pair pour Communautés en Ligne à Grande Echelle ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00766963.

Texte intégral
Résumé :
Les systèmes de recommandation (RS) et le pair-à-pair (P2) sont complémen-taires pour faciliter le partage de données à grande échelle: RS pour filtrer et person-naliser les requêtes des utilisateurs, et P2P pour construire des systèmes de partage de données décentralisés à grande échelle. Cependant, il reste beaucoup de difficultés pour construire des RS efficaces dans une infrastructure P2P. Dans cette thèse, nous considérons des communautés en ligne à grande échelle, où les utilisateurs notent les contenus qu'ils explorent et gardent dans leur espace de travail local les contenus de qualité pour leurs sujets d'intérêt. Notre objectif est de construire un P2P-RS efficace pour ce contexte. Nous exploitons les sujets d'intérêt des utilisateurs (extraits automatiquement des contenus et de leurs notes) et les don-nées sociales (amitié et confiance) afin de construire et maintenir un overlay P2P so-cial. La thèse traite de plusieurs problèmes. D'abord, nous nous concentrons sur la conception d'un P2P-RS qui passe à l'échelle, appelé P2Prec, en combinant les ap-proches de recommandation par filtrage collaboratif et par filtrage basé sur le contenu. Nous proposons alors de construire et maintenir un overlay P2P dynamique grâce à des protocoles de gossip. Nos résultats d'expérimentation montrent que P2Prec per-met d'obtenir un bon rappel avec une charge de requêtes et un trafic réseau accep-tables. Ensuite, nous considérons une infrastructure plus complexe afin de construire et maintenir un overlay P2P social, appelé F2Frec, qui exploite les relations sociales entre utilisateurs. Dans cette infrastructure, nous combinons les aspects filtrage par contenu et filtrage basé social, pour obtenir un P2P-RS qui fournit des résultats de qualité et fiables. A l'aide d'une évaluation de performances extensive, nous mon-trons que F2Frec améliore bien le rappel, ainsi que la confiance dans les résultats avec une surcharge acceptable. Enfin, nous décrivons notre prototype de P2P-RS que nous avons implémenté pour valider notre proposition basée sur P2Prec et F2Frec.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Moin, Afshin. « Les Techniques De Recommandation Et De Visualisation Pour Les Données A Une Grande Echelle ». Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00724121.

Texte intégral
Résumé :
Nous avons assisté au développement rapide de la technologie de l'information au cours de la dernière décennie. D'une part, la capacité du traitement et du stockage des appareils numériques est en constante augmentation grâce aux progrès des méthodes de construction. D'autre part, l'interaction entre ces dispositifs puissants a été rendue possible grâce à la technologie de réseautage. Une conséquence naturelle de ces progrès, est que le volume des données générées dans différentes applications a grandi à un rythme sans précédent. Désormais, nous sommes confrontés à de nouveaux défis pour traiter et représenter efficacement la masse énorme de données à notre disposition. Cette thèse est centrée autour des deux axes de recommandation du contenu pertinent et de sa visualisation correcte. Le rôle des systèmes de recommandation est d'aider les utilisateurs dans le processus de prise de décision pour trouver des articles avec un contenu pertinent et une qualité satisfaisante au sein du vaste ensemble des possibilités existant dans le Web. D'autre part, la représentation correcte des données traitées est un élément central à la fois pour accroître l'utilité des données pour l'utilisateur final et pour la conception des outils d'analyse efficaces. Dans cet exposé, les principales approches des systèmes de recommandation ainsi que les techniques les plus importantes de la visualisation des données sous forme de graphes sont discutées. En outre, il est montré comment quelques-unes des mêmes techniques appliquées aux systèmes de recommandation peuvent être modifiées pour tenir compte des exigences de visualisation.
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Graphe de recommandation"

1

Recommandations pour l’établissement d’un système national de surveillance de la morbidité maternelle extrêmement grave en Amérique latine et aux Caraïbes. Pan American Health Organization, 2022. http://dx.doi.org/10.37774/9789275223918.

Texte intégral
Résumé :
D’un point de vue physiopathologique, la mort est le résultat final d’un large éventail de complications qui mènent à une dysfonction multi-organique. Cependant il existe un groupe de femmes qui survivent en dépit de la gravité de leur tableau clinique, et ce résultat dépend principalement de la qualité des services de soins de santé prodigués par un pays ou un établissement. La présente publication propose un système de surveillance épidémiologique de l’indicateur de morbidité maternelle extrêmement grave (MMEG) qui permet d’estimer la morbidité liée aux maladies et complications apparues au cours de la grossesse, de l’accouchement ou du post-partum. Elle fournit aussi des informations plus complètes sur les cas de mort maternelle évitable, prend compte certains aspects de la sécurité de la patiente et aide à mieux détecter les lacunes des systèmes de soins. Cet ouvrage s’inscrit dans l’objectif plus large de l’Organisation panaméricaine de la Santé qui est de réduire la mortalité maternelle et de renforcer la surveillance épidémiologique de la santé maternelle à l’échelon national. Pour les autorités de santé des pays, cet outil représente un système d’identification, de collecte, de traitement et d’analyse active des informations liées à la MMEG, et il peut également être utile aux prestataires et gestionnaires des services de santé locaux et régionaux.
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Graphe de recommandation"

1

« Conclusions et recommandations ». Dans Chemin de fer transeuropéen à grande vitesse étude du plan directeur : Phase 2, 300–324. United Nations, 2023. http://dx.doi.org/10.18356/9789210054966c009.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

DOLZ, M. « Diagnostic et prise en charge des incidentalomes surrénaliens ». Dans Médecine et Armées Vol. 44 No.3, 223–34. Editions des archives contemporaines, 2016. http://dx.doi.org/10.17184/eac.6811.

Texte intégral
Résumé :
L’amélioration des techniques d’imagerie et leur plus grande disponibilité a conduit à la découverte de plus en plus fréquente de masses surrénaliennes cliniquement silencieuses: les incidentalomes surrénaliens. Leur prise en charge constitue un vrai défi pour la médecine moderne, car un des principaux enjeux soulevés par la mise en évidence d’un incidentalome surrénalien est de ne pas méconnaître une pathologie grave (une tumeur hypersécrétante et/ou une tumeur maligne) tout en évitant de multiplier les examens inutiles, angoissants et coûteux. L’objectif principal de cet article et de préciser la conduite à tenir diagnostique para-clinique (radiologique et hormonale) devant un incidentalome surrénalien, démarche qui a fait l’objet des recommandations de la Société française d’endocrinologie en 2007 et sur laquelle nous nous baserons.
Styles APA, Harvard, Vancouver, ISO, etc.
3

GARCIA, C., L. BORDIER et H. MAYAUDON. « Conduite à tenir devant un nodule thyroïdien ». Dans Médecine et Armées Vol. 44 No.3, 217–22. Editions des archives contemporaines, 2016. http://dx.doi.org/10.17184/eac.6810.

Texte intégral
Résumé :
La grande fréquence des nodules thyroïdiens, estimée entre 2 et 8 % de la population générale, amène le médecin d’unité à découvrir régulièrement ces nodules à la palpation en visite périodique, ou lors d’une imagerie cervicale prescrite pour une tout autre raison. La démarche diagnostique, centrée sur la préoccupation de ne pas méconnaître un cancer de la thyroïde, est basée sur l’interrogatoire, l’examen clinique, l’échographie cervicale, et le plus souvent, la prescription d’une cytoponction à l’aiguille fine écho-guidée, dont l’interprétation, basée sur la conférence de Bethesda de 2007 doit être précise et pertinente. Le but de ce travail est de rapporter des données récentes dans ce domaine, de préciser la conduite à tenir devant un nodule thyroïdien au vu du texte de recommandation publié par la société française d’endocrinologie en 2011, et enfin de présenter notre point de vue dans le domaine de l’aptitude, y compris pour les nodules cancéreux.
Styles APA, Harvard, Vancouver, ISO, etc.
4

LEFORT, H., J. PANNETIER, O. BON, P. GINDRE, H. MARSAA, S. TRAVERS et F. PEDUZZI. « Expert santé du mécanisme de protection civile de l’Union européenne ». Dans Médecine et Armées Vol. 46 No.3, 289–98. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7345.

Texte intégral
Résumé :
Situation générale : la protection civile est une aide d’origine gouvernementale permettant à une nation de répondre au mieux pendant ou après une catastrophe pour la protection des personnes et des biens. Elle peut être en nature, par l’envoi d’équipes spécialisées dans la gestion de crises spécifiques ou pour l’évaluation et la coordination sur site. Le « Mécanisme » européen de protection civile (EUCPM), créé en 2001, a pour but de permettre la coopération et la mise en commun des moteurs de résilience nationaux afin d’augmenter la pertinence et l’efficience de la réponse à la crise entre 32 pays participants. Il peut être activé sur demande par tout pays dans le monde. Les missions sont d’une grande complexité, à haute responsabilité en milieu international à l’instar de leurs intensités, dans l’incertitude des premiers instants de la crise, des hommes et des institutions participantes. Mission : l’ouragan « Matthew » dévastait la partie ouest de Haïti le 4 octobre 2016, le gouvernement demandant d’emblée à l’Union européenne d’activer le Mécanisme. Une équipe de cinq experts, dont un expert santé, était mise en place du 7 au 26 octobre pour la Commission européenne. Les missions étaient notamment de faciliter la coordination, le déploiement, la mise en place et le retrait de l’aide reçue par Haïti de la part des états membres de l’Union européenne, d’appuyer les autorités nationales et les Nations unies pour évaluer la situation et faciliter la coordination, d’identifier les besoins et le type d’assistance nécessaire en protection civile et formuler les recommandations. Ce fut notamment au profit de la plus grosse unité d’épuration d’eau d’origine française des Unités d’instruction et d’intervention de la sécurité civile, l’acheminement des kits adaptés aux stocks nationaux dans la lutte contre l’épidémie de diarrhées aiguës sévères en collaboration étroite avec l’Organisation mondiale de la santé ayant le mandat gouvernemental pour les questions sanitaires. Discussion : l’expertise santé a été originale dans l’évaluation et l’anticipation des différents aspects de la crise sanitaire, la formalisation des offres de santé de l’Union européenne au plus proche des besoins et pour une mise à profit immédiate, l’expertise de l’hital régional de la ville de Jeremie pour une reprise de son activité chirurgicale immédiate. Les ajustements de l’expert santé doivent être d’une grande dynamique face à la gestion de la crise en collaboration avec les différents partenaires locaux, français, européens et internationaux.
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Graphe de recommandation"

1

Palmer, Jennifer, et Diane Duclos. Considérations Clés : Surveillance à Base Communautaire dans le Domaine de la Santé Publique. Institute of Development Studies, juin 2023. http://dx.doi.org/10.19088/sshap.2023.014.

Texte intégral
Résumé :
Les récentes épidémies et pandémies à grande échelle ont démontré l’importance d’engager les communautés en tant que partenaires pour prévenir, détecter et répondre aux situations d’urgence sanitaire. La surveillance à base communautaire (SBC), qui s’appuie sur les communautés pour communiquer des informations en matière de santé publique, peut constituer un élément essentiel pour la mise en œuvre d’interventions efficaces, inclusives et responsables dans les situations d’urgence humanitaire et de santé publique, ainsi que dans le cadre de la lutte à long terme contre les maladies. Cette note stratégique propose des considérations clés pour les programmes de SBC visant à orienter les décideurs, les autorités sanitaires, les organisations de la société civile, les agents de santé, les chercheurs, les défenseurs et d’autres personnes impliquées dans le domaine de la surveillance sanitaire. Elle est basée sur un examen rapide des recommandations en matière de SBC et des publications en sciences sociales. Elle a été rédigée par Jennifer Palmer et Diane Duclos (London School of Hygiene & Tropical Medicine, LSHTM) avec la contribution de Mariam Sharif (École des Hautes Études en Sciences Sociales, EHESS). Elle a été revue par Ruwan Ratnayake (LSHTM), Maysoon Dahab (LSHTM) et Luisa Enria (LSHTM). Cette note stratégique relève de la responsabilité de la Plateforme Social Science in Humanitarian Action (SSHAP).
Styles APA, Harvard, Vancouver, ISO, etc.
2

Fontecave, Marc, et Candel Sébastien. Quelles perspectives énergétiques pour la biomasse ? Académie des sciences, janvier 2024. http://dx.doi.org/10.62686/1.

Texte intégral
Résumé :
Le débat public concernant l’avenir du mix énergétique français à l’horizon 2050 a longtemps été réduit à la seule considération de son volet électrique, dans une opposition entre énergie nucléaire et énergies renouvelables (EnR). Pourtant, la part non-électrique de notre consommation énergétique constitue clairement aujourd’hui un des principaux défis de la transition climatique et énergétique. Actuellement issue du pétrole, du gaz et du charbon, elle constitue l’angle mort des divers scénarios énergétiques disponibles, alors qu’elle restera encore indispensable, notamment dans le secteur de la mobilité et de la production de chaleur. Le Comité de prospective en énergie (CPE) de l’Académie des sciences examine ici les ressources énergétiques et carbonées pouvant être tirées de la biomasse, qui présente des atouts certains en permettant le stockage de l’énergie sous forme de biogaz ou de biocarburants, et les perspectives raisonnables offertes par celles-ci dans le mix énergétique national à l’horizon 2050. Le présent rapport se focalise sur les aspects scientifiques et technologiques, sans occulter certaines considérations environnementales, économiques, sociales, et de souveraineté nationale, abordés à la lumière de la littérature disponible et de l’audition d’experts des divers domaines considérés. Après avoir défini la notion de biomasse dans sa diversité, le rapport décrit les différentes bioénergies possibles et leurs limites. Les utilisations actuelles de la biomasse en France sont évaluées et comparées aux perspectives envisagées à l’horizon 2050 au regard du potentiel réellement mobilisable, pour lequel il existe une grande variation dans les estimations proposées, et des technologies nécessaires à sa transformation, qui restent, pour la plupart, coûteuses et de faible maturité. Ainsi, cette analyse montre notamment que le besoin d’énergie non-électrique, tel qu’il est défini dans le scénario de référence fourni par Réseau de transport d’électricité (RTE), sera difficile – pour ne pas dire impossible - à atteindre avec la seule biomasse produite en France : le bouclage énergétique 2050 passera nécessairement par un maintien d’importations de gaz naturel et par de nouvelles importations de biomasse et/ou de bioénergie introduisant des dépendances nouvelles et exportant les risques associés à leur utilisation massive. Le rapport rappelle que la bioénergie reste l’énergie la moins favorable en termes d’empreinte spatiale et que la biomasse a, sur toute la chaîne des valeurs, un faible retour énergétique. Sa plus grande mobilisation, qui ne devra pas se faire au détriment de la sécurité alimentaire humaine et animale, ni au détriment des éco-services rendus par la biosphère, aura des impacts environnementaux certains qu’il faudrait estimer avec rigueur. Enfin, le remplacement de la pétrochimie industrielle par une nouvelle « carbochimie biosourcée » va nécessiter des efforts considérables d’adaptation des procédés et de recherche et développement dans le domaine de la catalyse, de la chimie de synthèse et des biotechnologies. Ces conclusions conduisent le CPE à formuler des recommandations concernant : 1.La nécessaire amélioration de la concertation entre les divers organismes et agences pour aboutir à une estimation rigoureuse et convergente des ressources potentielles, 2.La réalisation de bilans carbone des diverses filières et d’analyses en termes de retour énergétique des investissements envisagés, pour s’assurer de la soutenabilité et du gain en carbone qui ne sont pas acquis pour le moment, 3.Le soutien au déploiement de la recherche et développement des filières de biocarburants de seconde génération pour accroitre leur maturité industrielle, 4.La poursuite du développement d’une chimie organique de synthèse biosourcée, 5.La priorité à établir dans l’utilisation de la biomasse pour les usages qui ne pourront être décarbonés par l’électricité, passant par une politique publique permettant de résoudre les conflits d’usages, 6.La nécessité de concertation des politiques énergétique et agroalimentaire de notre pays.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, octobre 2023. http://dx.doi.org/10.54932/ryht5065.

Texte intégral
Résumé :
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie