Auswahl der wissenschaftlichen Literatur zum Thema „Curation des données“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Curation des données" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Curation des données"

1

Le Provost, Aline. „La curation, un enjeu pour la gestion des données numériques“. Y a-t-il un bibliothécaire dans la salle ?, Nr. 97 (01.04.2020): 20. http://dx.doi.org/10.35562/arabesques.1793.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Plumejeaud-Perreau, Christine, Silvia Marzagalli, Pierre Niccolò Sofia und Robin de Mourat. „Curation en interdisciplinarité d’une base de données historique : de Navigocorpus à Portic, ou de la qualification de l’incertitude“. Histoire & mesure XXXVIII, Nr. 2 (01.12.2023): 39–72. http://dx.doi.org/10.4000/histoiremesure.19833.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Desrosiers, Georges, Benoît Gaumer und Othmar Keel. „Contribution de l’École d’hygiène de l’Université de Montréal à un enseignement francophone de santé publique, 1946-1970“. Revue d'histoire de l'Amérique française 47, Nr. 3 (26.08.2008): 323–47. http://dx.doi.org/10.7202/305244ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Au début du siècle, l'intégration de la bactériologie dans les pratiques de santé publique a conduit à une séparation de plus en plus marquée entre la médecine curative et la médecine préventive et a ouvert la voie à la formation d'une nouvelle spécialité, celle des hygiénistes (médecins, infirmières, dentistes, etc.) qui ont rapidement senti le besoin de se donner des moyens de formation adaptés. C'est ainsi que sont nées à partir de 1918 les écoles de santé publique, d'abord aux États-Unis puis au Canada. Le Canada n'a eu que deux écoles de santé publique, celle de Toronto (1925-1975) qui desservait les anglophones et l'École d'hygiène de l'Université de Montréal (1946-1970) pour les francophones. Ces deux écoles ont été intégrées aux facultés de médecine dans le vent des réformes du début des années 1970. Cette étude relate les premières initiatives de formation spécialisée en santé publique dans les universités francophones du Québec qui remontent à 1911, les circonstances de la création de l'École d'hygiène, la mission qu'elle s'est donnée au début et l'évolution de ses structures administratives. Elle analyse plus en détail ses principaux programmes de formation, la composition du corps professoral et de la clientèle étudiante.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Simon, M., J. Jouffroy, C. Lebihan, C. Gastaldi-Ménager, P. Tuppin und J. M. Sabaté. „Évaluation de la surveillance radiologique après traitement curatif du cancer colorectal non métastatique après chimiothérapie adjuvante à partir des données du Système national des données de santé“. Revue d'Épidémiologie et de Santé Publique 68 (März 2020): S53. http://dx.doi.org/10.1016/j.respe.2020.01.121.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Weerahandi, Ambereen, Shane Sinclair, Shelley Raffin-Bouchal, Linda Watson und Laurie Lemieux. „Myélome multiple et approche palliative des soins : étude théorique ancrée dans la pratique“. Canadian Oncology Nursing Journal 34, Nr. 4 (November 2024): 550–61. http://dx.doi.org/10.5737/23688076344550.

Der volle Inhalt der Quelle
Annotation:
Objectif : Le myélome multiple est un cancer hématologique incurable. Pour alléger la souffrance, il est possible d’employer une approche palliative en conjonction avec un traitement curatif, mais cette approche est sous-utilisée chez les patients en hémato-oncologie. L’objectif de la présente étude est d’examiner l’expérience des personnes atteintes d’un myélome multiple qui reçoivent un traitement palliatif dans le cadre de leurs soins, et de comprendre comment ils perçoivent cette approche. Méthodologie : La présente étude suit le modèle de la théorie ancrée de Strauss. En tout, 10 personnes atteintes de myélome multiple y ont participé entre octobre 2021 et mai 2022. Résultats : Les chercheuses ont créé un modèle théorique illustrant le processus de l’expérience du myélome multiple. Les données ont permis d’extrapoler 7 catégories, ainsi qu’une catégorie centrale, c’est-à-dire « le fait d’exister dans l’espace liminal entre la vie avec le myélome multiple et la mort à cause de la maladie ». Selon les résultats, le recours à l’approche palliative manquait de constance. Conclusion : Le modèle conçu à partir des données recueillies auprès des participants rend compte de l’expérience du myélome multiple et de l’utilité de l’approche palliative. Mots-clés : myélome multiple, approche palliative des soins, théorie ancrée
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

GONZÁLEZ VÁZQUEZ, B., J. M. CHOUBERT, E. PAUL und J. P. CANLER. „Comment éviter le colmatage irréversible des installations de biofiltration ?“ Techniques Sciences Méthodes, Nr. 11 (20.11.2020): 71–86. http://dx.doi.org/10.36904/tsm/202011071.

Der volle Inhalt der Quelle
Annotation:
La biofiltration est une technologie compacte et efficace pour le traitement des effluents urbains. Certaines installations sont régulièrement touchées par un colmatage irréversible, nécessitant une opération curative pour retrouver sa capacité de traitement. Une première enquête menée en 2007 avait évalué l’ampleur du colmatage des biofiltres, et sensibilisé exploitants et concepteurs au phénomène. En 2018, une seconde enquête a réévalué l’ampleur du colmatage des biofiltres, a approfondi les causes et les moyens de détection de ce phénomène. Nous avons consulté les 128 biofiltres existants sur le territoire national ainsi que quelques installations d’autres pays européens, afin de collecter des données de construction et d’exploitation de différentes technologies (Biofor, Biostyr, Biolest, Biopur) fonctionnant dans différentes configurations. Nous avons également recueilli les informations concernant les cycles de lavage et la fréquence observée des colmatages irréversibles. Le taux de réponse a été de 33% donnant un échantillon de réponse représentatif du parc de biofiltres français. Nous avons montré que le colmatage irréversible semble en régression et touche principalement les installations en première étape de traitement (après le décanteur primaire). Le risque de colmatage irréversible est important au-delà de 5,8 kg de demande chimique en oxygène (DCO)/m3 matériau/cycle de filtration et de 2,1 kg de matières en suspension (MES)/m3 matériau/cycle. Néanmoins, il est également important pour des charges volumiques inférieures dans le cas d’effluents très organiques (ratios DCO/MES > 3,2), lié à une accumulation importante de biomasse malgré la faible charge en matières en suspension appliquée. L’étude a permis d’énoncer et de hiérarchiser des règles d’exploitation comprenant des indicateurs de dérive vers le colmatage irréversible, ainsi que des moyens de lutte préventifs et curatifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Simaga, Karamoko. „Facteurs déterminants de la faible utilisation des soins curatifs du centre de santé communautaire de Lassa en commune IV de Bamako en 2017“. Mali Santé Publique 10, Nr. 1 (24.07.2020): 51–54. http://dx.doi.org/10.53318/msp.v10i1.1662.

Der volle Inhalt der Quelle
Annotation:
Introduction : La couverture universelle en matière de santé a un impact direct sur la santé de la population. L'accès aux services de santé permet aux gens d'être plus productifs et de contribuer plus activement à la vie familiale et communautaire. Cette étude a été menée dans le but de comprendre les facteurs déterminants l'utilisation des services de soins curatifs dans le Centre de Santé Communautaire de Lassa en commune IV du district de Bamako en 2017. Matériel et Méthodes : Une étude transversale, descriptive et analytique a été menée dans l'aire de santé de Lassa. Ont participé à cette étude, les chefs de ménages ayant résidé dans l'aire de santé pendant au moins 6 mois après l'obtention du consentement éclairé. Les données ont été collectées à l'aide des questionnaires. Une analyse de régression logistique multi-variée a été faite pour les variables ayant obtenu une valeur p ˂ 0,05 (association statistiquement significative) à l'analyse bi-variée en utilisant le logiciel SPSS 21.0. Résultats : L'utilisation des soins curatifs était de 36,9%. La régression logistique multi variée a montré que le manque de confiance aux personnels soignant (p=0,0001), les chefs des ménages de sexe masculin (p=0,0001), et le statut de non adhérant des chefs des ménages au CSCom (p=0,011) étaient significativement associés à la faible utilisation des soins curatifs du CSCom de Lassa. Conclusion : Il est possible d'améliorer le taux d'utilisation des soins curatifs du CSCom, si certaines mesures sont prises en compte (la promotion des mécanismes de partage de risque par des mutuelles de santé, la promotion des activités génératrices de revenus).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Laugier, C., G. Lang, V. Mary und É. Parent. „Modélisation d'une politique d'autocontrôle sur un réseau d'eau potable“. Revue des sciences de l'eau 12, Nr. 1 (12.04.2005): 201–17. http://dx.doi.org/10.7202/705349ar.

Der volle Inhalt der Quelle
Annotation:
Quel est le nombre d'échantillons à prélever pour analyse bactériologique dans un réseau de distribution d'eau potable afin réaliser un autocontrôle optimal du point de vue économique (coûts analytiques et coût des actions curatives), tout en limitant les risques de dégradation de la qualité ? Pour répondre à cette question, nous proposons un modèle probabiliste qui simule le choix de la décision curative lorsque les analyses indiquent des résultats insatisfaisants ainsi que l'effet de cette décision sur la qualité de l'eau du réseau. Les différentes actions curatives et leur efficacité ont été déterminées empiriquement à partir de l'expertise du gestionnaire du réseau de la Banlieue de Paris et des données collectées de 1992 à 1996. Le modèle s'appuie sur un schéma Markovien d'évolution du couple (Qualité de l'eau, Action curative). Par programmation dynamique, on calcule le coût moyen de la politique décisionnelle de la Banlieue de Paris et le risque généré par cette politique en terme de qualité de l'eau (fréquence des états dégradés), pour différents niveaux d'autocontrôle (nombre d'analyses d'autocontrôle). Le risque d'avoir un état dégradé diminue avec le nombre d'analyses jusqu'au seuil de 140 analyses (autocontrôle et contrôle réglementaire) puis reste quasiment constant, tandis que les coûts continuent d'augmenter.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Sow, O., NS Fetche, C. Vermare, B. Annabel, A. Anusca und L. Perrot. „C34: Résultat de la prise en charge des tumeurs stromales gastro-intestinales (GIST) : A propos de 6 cas au centre hospitalier de Vichy (France)“. African Journal of Oncology 2, Nr. 1 Supplement (01.03.2022): S15. http://dx.doi.org/10.54266/ajo.2.1s.c34.myrhvjbqpy.

Der volle Inhalt der Quelle
Annotation:
INTRODUCTION : Les tumeurs stromales gastro-intestinales (GIST) sont des sarcomes digestifs les plus fréquents et constituent 18 à 20% de l’ensemble des sarcomes des tissus mous. Ce sont des tumeurs mésenchymateuses du tractus gastro-intestinal avec un risque élevé de transformation maligne. Leur diagnostic repose sur l’histologie et la mise en évidence de l’expression de C-KIT par immunohistochimie ou d’une mutation de KIT ou PDGFRA par biologie moléculaire. Elles peuvent se développer sur l’ensemble des segments du tube digestif allant de l’œsophage jusqu’à l’anus. Elles sont souvent asymptomatiques. Le diagnostic est fortuit dans la majorité des cas. Le traitement curatif reste la résection chirurgicale, associé à un inhibiteur sélectif des récepteurs de la tyrosine kinase (Imatinib) en adjuvant ou en néo-adjuvant pour améliorer la morbi-mortalité associée aux GIST. L’objectif de cette étude était d’analyser les résultats de la prise en charge des GIST au Centre Hospitalier de Vichy. MATERIELS ET METHODES : Entre 2010 et 2020, les données de six patients opérés au centre hospitalier de Vichy pour GIST ont été analysées. Les paramètres étudiés étaient : l’âge, le sexe, les antécédents, les circonstances de découvertes, le bilan morphologique, le geste opératoire, les données anatomopathologiques, le suivi et la morbi-mortalité. RESULTATS : Il s’agissait de cinq hommes et une femme avec âge moyen de 72,16 ans (58 – 80 ans). Le délai moyen d’évolution était de huit mois (zéro à 14 mois). Le diagnostic était fortuit dans deux cas. La douleur abdominale atypique était le maitre symptôme dans trois cas. Un cas a été reçu dans un tableau de syndrome d’irritation péritonéale. L’écho-endoscopie avec l’examen histologique de la pièce de biopsie a permis de poser le diagnostic dans cinq cas. L´histologie de la pièce opératoire a confirmé le diagnostic dans un cas. Le type fusiforme était la forme histologique prédominante. L’estomac était la localisation la plus fréquente. La taille moyenne des GIST était de 7,3x4 cm avec un C-KIT positif chez tous les patients. Une chimiothérapie néoadjuvante a été faite chez un patient. La chirurgie était curative et par voie laparoscopique chez quatre patients. Une chimiothérapie adjuvante à base d´imatinib à raison de 400 mg/j chez trois patients a été instauré. Un patient avait présenté une fistule de l’anastomose œso-jéjunale à J6 post-opératoire jugulée par un drainage et une antibiothérapie. La mortalité était nulle. CONCLUSION : Les GIST sont des tumeurs mésenchymateuses les plus fréquentes du tractus digestif avec une localisation préférentielle gastrique. La chirurgie par approche laparoscopique, avec les progrès de la biologie moléculaire et l’introduction de la thérapie ciblée ont amélioré la prise en charge de ces tumeurs en termes de morbi-mortalité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bruneel, F., A. Raffetin, A. Roujansky, P. Corne, C. Tridon, J. F. Llitjos, B. Mourvillier, V. Laurent und S. Jauréguiberry. „Prise en charge du paludisme grave d’importation de l’adulte“. Médecine Intensive Réanimation 27, Nr. 3 (Mai 2018): 228–38. http://dx.doi.org/10.3166/rea-2018-0051.

Der volle Inhalt der Quelle
Annotation:
En France, le paludisme grave d’importation concerne environ 12 à 14 % des accès palustres et implique très majoritairement Plasmodium falciparum. À partir de la définition du paludisme grave de l’Organisation mondiale de la santé utilisée en zone d’endémie palustre, la définition française du paludisme grave d’importation de l’adulte a été adaptée aux données et au contexte européens. La prise en charge du paludisme grave est une urgence diagnostique et thérapeutique qui doit être réalisée initialement en réanimation. Le traitement curatif du paludisme grave d’importation repose maintenant sur l’artésunate intraveineux (IV) qui doit être disponible dans chaque hôpital susceptible de recevoir ces patients. Dès lors, la quinine IV devient un traitement de seconde ligne réservé à quelques circonstances. La prise en charge symptomatique des défaillances d’organes est primordiale, notamment au cours des formes les plus sévères. Enfin, aucun traitement adjuvant n’a prouvé, à ce jour, son efficacité en pratique clinique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Curation des données"

1

Cappuzzo, Riccardo. „Deep learning models for tabular data curation“. Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS047.

Der volle Inhalt der Quelle
Annotation:
La conservation des données est un sujet omniprésent et de grande envergure, qui touche tous les domaines, du monde universitaire à l'industrie. Les solutions actuelles reposent sur le travail manuel des utilisateurs du domaine, mais elles ne sont pas adaptées. Nous étudions comment appliquer l'apprentissage profond à la conservation des données tabulaires. Nous concentrons notre travail sur le développement de systèmes de curation de données non supervisés et sur la conception de systèmes de curation qui modélisent intrinsèquement les valeurs catégorielles dans leur forme brute. Nous implémentons d'abord EmbDI pour générer des embeddings pour les données tabulaires, et nous traitons les tâches de résolution d'entités et de correspondance de schémas. Nous passons ensuite au problème de l'imputation des données en utilisant des réseaux neuronaux graphiques dans un cadre d'apprentissage multi-tâches appelé GRIMP
Data retention is a pervasive and far-reaching topic, affecting everything from academia to industry. Current solutions rely on manual work by domain users, but they are not adequate. We are investigating how to apply deep learning to tabular data curation. We focus our work on developing unsupervised data curation systems and designing curation systems that intrinsically model categorical values in their raw form. We first implement EmbDI to generate embeddings for tabular data, and address the tasks of entity resolution and schema matching. We then turn to the data imputation problem using graphical neural networks in a multi-task learning framework called GRIMP
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Scavo, Giuseppe. „Content curation and characterization in communities of a place“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066521/document.

Der volle Inhalt der Quelle
Annotation:
La quantité d'informations sur Internet aujourd'hui accable la plupart des utilisateurs. La découverte d'informations pertinentes (p. Ex. Des nouvelles à lire ou des vidéos à regarder) prend du temps et est fastidieuse; pourtant, elle fait partie du travail quotidien d'au moins 80% des employés en Amérique du Nord. Plusieurs systèmes de filtrage d'informations pour le Web peuvent faciliter cette tâche pour les utilisateurs. Les exemples se retrouvent dans des familles telles que les réseaux sociaux, les systèmes de notation sociale et les systèmes de bookmarking social. Tous ces systèmes exigent que l'engagement de l'utilisateur fonctionne (par exemple, la soumission ou l'évaluation du contenu). Ils fonctionnent bien dans une communauté Internet, mais souffrent dans le cas des petites communautés. En effet, dans les petites communautés, l'apport des utilisateurs est plus rare. Nous nous concentrons sur les communautés d'un endroit qui sont des communautés qui regroupent les gens qui vivent, travaillent ou étudient dans la même région. Exemples de communautés d'un lieu: (i) les étudiants d'un campus, (ii) les personnes vivant dans un quartier ou (iii) les chercheurs travaillant sur le même site. Anecdote nous savons que seulement 0,3% des travailleurs contribuent quotidiennement à leur réseau social d'entreprise. Cette information montre qu'il ya un manque d'engagement des utilisateurs dans les communautés d'un endroit.Dans cette thèse, nous tirons parti de l'observation passive des communautés d'un endroit pour réduire les frais généraux pour les utilisateurs de participer à des systèmes de filtrage de l'information. Nous obtenons une nouvelle source riche d'informations que nous utilisons pour (i) concevoir WeBrowse, un outil de restauration de contenu pour les communautésLa quantité d'informations sur Internet aujourd'hui accable la plupart des utilisateurs. La découverte d'informations pertinentes (p. Ex. Des nouvelles à lire ou des vidéos à regarder) prend du temps et est fastidieuse; pourtant, elle fait partie du travail quotidien d'au moins 80% des employés en Amérique du Nord. Plusieurs systèmes de filtrage d'informations pour le Web peuvent faciliter cette tâche pour les utilisateurs. Les exemples se retrouvent dans des familles telles que les réseaux sociaux, les systèmes de notation sociale et les systèmes de bookmarking social. Tous ces systèmes exigent que l'engagement de l'utilisateur fonctionne (par exemple, la soumission ou l'évaluation du contenu). Ils fonctionnent bien dans une communauté Internet, mais souffrent dans le cas des petites communautés. En effet, dans les petites communautés, l'apport des utilisateurs est plus rare. Nous nous concentrons sur les communautés d'un endroit qui sont des communautés qui regroupent les gens qui vivent, travaillent ou étudient dans la même région. Exemples de communautés d'un lieu: (i) les étudiants d'un campus, (ii) les personnes vivant dans un quartier ou (iii) les chercheurs travaillant sur le même site. Anecdote nous savons que seulement 0,3% des travailleurs contribuent quotidiennement à leur réseau social d'entreprise. Cette information montre qu'il ya un manque d'engagement des utilisateurs dans les communautés d'un endroit
The amount of information on the Internet today overwhelms most users. Discovering relevant information (e.g. news to read or videos to watch) is time-consuming and tedious and yet it is part of the daily job of at least 80% of the employees in North America. Several information filtering systems for the web can ease this task for users. Examples fall into families such as Social Networks, Social Rating Systems and Social Bookmarking Systems. All these systems require user engagement to work (e.g. submission or rating of content). They work well in an Internet-wide community but suffer in the case smaller communities. Indeed, in smaller communities, the users' input is more scarce. We focus on communities of a place that are communities that group people who live, work or study in the same area. Examples of communities of a place are: (i) the students of a campus, (ii) the people living in a neighborhood or (iii) researchers working in the same site. Anecdotally we know that only 0.3% of workers contribute daily to their corporate social network. This information shows that there is a lack of user engagement in communities of a place
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Scavo, Giuseppe. „Content curation and characterization in communities of a place“. Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066521.

Der volle Inhalt der Quelle
Annotation:
La quantité d'informations sur Internet aujourd'hui accable la plupart des utilisateurs. La découverte d'informations pertinentes (p. Ex. Des nouvelles à lire ou des vidéos à regarder) prend du temps et est fastidieuse; pourtant, elle fait partie du travail quotidien d'au moins 80% des employés en Amérique du Nord. Plusieurs systèmes de filtrage d'informations pour le Web peuvent faciliter cette tâche pour les utilisateurs. Les exemples se retrouvent dans des familles telles que les réseaux sociaux, les systèmes de notation sociale et les systèmes de bookmarking social. Tous ces systèmes exigent que l'engagement de l'utilisateur fonctionne (par exemple, la soumission ou l'évaluation du contenu). Ils fonctionnent bien dans une communauté Internet, mais souffrent dans le cas des petites communautés. En effet, dans les petites communautés, l'apport des utilisateurs est plus rare. Nous nous concentrons sur les communautés d'un endroit qui sont des communautés qui regroupent les gens qui vivent, travaillent ou étudient dans la même région. Exemples de communautés d'un lieu: (i) les étudiants d'un campus, (ii) les personnes vivant dans un quartier ou (iii) les chercheurs travaillant sur le même site. Anecdote nous savons que seulement 0,3% des travailleurs contribuent quotidiennement à leur réseau social d'entreprise. Cette information montre qu'il ya un manque d'engagement des utilisateurs dans les communautés d'un endroit.Dans cette thèse, nous tirons parti de l'observation passive des communautés d'un endroit pour réduire les frais généraux pour les utilisateurs de participer à des systèmes de filtrage de l'information. Nous obtenons une nouvelle source riche d'informations que nous utilisons pour (i) concevoir WeBrowse, un outil de restauration de contenu pour les communautésLa quantité d'informations sur Internet aujourd'hui accable la plupart des utilisateurs. La découverte d'informations pertinentes (p. Ex. Des nouvelles à lire ou des vidéos à regarder) prend du temps et est fastidieuse; pourtant, elle fait partie du travail quotidien d'au moins 80% des employés en Amérique du Nord. Plusieurs systèmes de filtrage d'informations pour le Web peuvent faciliter cette tâche pour les utilisateurs. Les exemples se retrouvent dans des familles telles que les réseaux sociaux, les systèmes de notation sociale et les systèmes de bookmarking social. Tous ces systèmes exigent que l'engagement de l'utilisateur fonctionne (par exemple, la soumission ou l'évaluation du contenu). Ils fonctionnent bien dans une communauté Internet, mais souffrent dans le cas des petites communautés. En effet, dans les petites communautés, l'apport des utilisateurs est plus rare. Nous nous concentrons sur les communautés d'un endroit qui sont des communautés qui regroupent les gens qui vivent, travaillent ou étudient dans la même région. Exemples de communautés d'un lieu: (i) les étudiants d'un campus, (ii) les personnes vivant dans un quartier ou (iii) les chercheurs travaillant sur le même site. Anecdote nous savons que seulement 0,3% des travailleurs contribuent quotidiennement à leur réseau social d'entreprise. Cette information montre qu'il ya un manque d'engagement des utilisateurs dans les communautés d'un endroit
The amount of information on the Internet today overwhelms most users. Discovering relevant information (e.g. news to read or videos to watch) is time-consuming and tedious and yet it is part of the daily job of at least 80% of the employees in North America. Several information filtering systems for the web can ease this task for users. Examples fall into families such as Social Networks, Social Rating Systems and Social Bookmarking Systems. All these systems require user engagement to work (e.g. submission or rating of content). They work well in an Internet-wide community but suffer in the case smaller communities. Indeed, in smaller communities, the users' input is more scarce. We focus on communities of a place that are communities that group people who live, work or study in the same area. Examples of communities of a place are: (i) the students of a campus, (ii) the people living in a neighborhood or (iii) researchers working in the same site. Anecdotally we know that only 0.3% of workers contribute daily to their corporate social network. This information shows that there is a lack of user engagement in communities of a place
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Kemp, Gavin. „CURARE : curating and managing big data collections on the cloud“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1179/document.

Der volle Inhalt der Quelle
Annotation:
L'émergence de nouvelles plateformes décentralisées pour la création de données, tel que les plateformes mobiles, les capteurs et l'augmentation de la disponibilité d'open data sur le Web, s'ajoute à l'augmentation du nombre de sources de données disponibles et apporte des données massives sans précédent à être explorées. La notion de curation de données qui a émergé se réfère à la maintenance des collections de données, à la préparation et à l'intégration d'ensembles de données (data set), les combinant avec une plateforme analytique. La tâche de curation inclut l'extraction de métadonnées implicites et explicites ; faire la correspondance et l'enrichissement des métadonnées sémantiques afin d'améliorer la qualité des données. La prochaine génération de moteurs de gestion de données devrait promouvoir des techniques avec une nouvelle philosophie pour faire face au déluge des données. Ils devraient aider les utilisateurs à comprendre le contenue des collections de données et à apporter une direction pour explorer les données. Un scientifique peut explorer les collections de données pas à pas, puis s'arrêter quand le contenu et la qualité atteignent des niveaux satisfaisants. Notre travail adopte cette philosophie et la principale contribution est une approche de curation des données et un environnement d'exploration que nous avons appelé CURARE. CURARE est un système à base de services pour curer et explorer des données volumineuses sur les aspects variété et variabilité. CURARE implémente un modèle de collection de données, que nous proposons, visant représenter le contenu structurel des collections des données et les métadonnées statistiques. Le modèle de collection de données est organisé sous le concept de vue et celle-ci est une structure de données qui pourvoit une perspective agrégée du contenu des collections des données et de ses parutions (releases) associées. CURARE pourvoit des outils pour explorer (interroger) des métadonnées et pour extraire des vues en utilisant des méthodes analytiques. Exploiter les données massives requière un nombre considérable de décisions de la part de l'analyste des données pour trouver quelle est la meilleure façon pour stocker, partager et traiter les collections de données afin d'en obtenir le maximum de bénéfice et de connaissances à partir de ces données. Au lieu d'explorer manuellement les collections des données, CURARE fournit de outils intégrés à un environnement pour assister les analystes des données à trouver quelle est la meilleure collection qui peut être utilisée pour accomplir un objectif analytique donné. Nous avons implémenté CURARE et expliqué comment le déployer selon un modèle d'informatique dans les nuages (cloud computing) utilisant des services de science des donnés sur lesquels les services CURARE sont branchés. Nous avons conçu des expériences pour mesurer les coûts de la construction des vues à partir des ensembles des données du Grand Lyon et de Twitter, afin de pourvoir un aperçu de l'intérêt de notre approche et notre environnement de curation de données
The emergence of new platforms for decentralized data creation, such as sensor and mobile platforms and the increasing availability of open data on the Web, is adding to the increase in the number of data sources inside organizations and brings an unprecedented Big Data to be explored. The notion of data curation has emerged to refer to the maintenance of data collections and the preparation and integration of datasets, combining them to perform analytics. Curation tasks include extracting explicit and implicit meta-data; semantic metadata matching and enrichment to add quality to the data. Next generation data management engines should promote techniques with a new philosophy to cope with the deluge of data. They should aid the user in understanding the data collections’ content and provide guidance to explore data. A scientist can stepwise explore into data collections and stop when the content and quality reach a satisfaction point. Our work adopts this philosophy and the main contribution is a data collections’ curation approach and exploration environment named CURARE. CURARE is a service-based system for curating and exploring Big Data. CURARE implements a data collection model that we propose, used for representing their content in terms of structural and statistical meta-data organised under the concept of view. A view is a data structure that provides an aggregated perspective of the content of a data collection and its several associated releases. CURARE provides tools focused on computing and extracting views using data analytics methods and also functions for exploring (querying) meta-data. Exploiting Big Data requires a substantial number of decisions to be performed by data analysts to determine which is the best way to store, share and process data collections to get the maximum benefit and knowledge from them. Instead of manually exploring data collections, CURARE provides tools integrated in an environment for assisting data analysts determining which are the best collections that can be used for achieving an analytics objective. We implemented CURARE and explained how to deploy it on the cloud using data science services on top of which CURARE services are plugged. We have conducted experiments to measure the cost of computing views based on datasets of Grand Lyon and Twitter to provide insight about the interest of our data curation approach and environment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Oshurko, Ievgeniia. „Knowledge representation and curation in hierarchies of graphs“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN024.

Der volle Inhalt der Quelle
Annotation:
L'extraction automatique des intuitions et la construction de modèles computationnels à partir de connaissances sur des systèmes complexes repose largement sur le choix d'une représentation appropriée. Ce travail s'efforce de construire un cadre adapté pour la représentation de connaissances fragmentées sur des systèmes complexes et sa curation semi-automatisé.Un système de représentation des connaissances basé sur des hiérarchies de graphes liés à l'aide d'homomorphismes est proposé. Les graphes individuels représentent des fragments de connaissances distincts et les homomorphismes permettent de relier ces fragments. Nous nous concentrons sur la conception de mécanismes mathématiques,basés sur des approches algébriques de la réécriture de graphes, pour la transformation de graphes individuels dans des hiérarchies qui maintient des relations cohérentes entre eux.De tels mécanismes fournissent une piste d'audit transparente, ainsi qu'une infrastructure pour maintenir plusieurs versions des connaissances.La théorie développée est appliquée à la conception des schémas pour les bases de données orientée graphe qui fournissent des capacités de co-évolution schémas-données.Ensuite, cette théorie est utilisée dans la construction du cadre KAMI, qui permet la curation des connaissances sur la signalisation dans les cellules. KAMI propose des mécanismes pour une agrégation semi-automatisée de faits individuels sur les interactions protéine-protéine en corpus de connaissances, la réutilisation de ces connaissances pour l'instanciation de modèles de signalisation dans différents contextes cellulaires et la génération de modèles exécutables basés sur des règles
The task of automatically extracting insights or building computational models fromknowledge on complex systems greatly relies on the choice of appropriate representation.This work makes an effort towards building a framework suitable for representation offragmented knowledge on complex systems and its semi-automated curation---continuouscollation, integration, annotation and revision.We propose a knowledge representation system based on hierarchies of graphs relatedwith graph homomorphisms. Individual graphs situated in such hierarchies representdistinct fragments of knowledge and the homomorphisms allow relating these fragments.Their graphical structure can be used efficiently to express entities and their relations. Wefocus on the design of mathematical mechanisms, based on algebraic approaches to graphrewriting, for transformation of individual graphs in hierarchies that maintain consistentrelations between them. Such mechanisms provide a transparent audit trail, as well as aninfrastructure for maintaining multiple versions of knowledge.We describe how the developed theory can be used for building schema-aware graphdatabases that provide schema-data co-evolution capabilities. The proposed knowledgerepresentation framework is used to build the KAMI (Knowledge Aggregation and ModelInstantiation) framework for curation of cellular signalling knowledge. The frameworkallows for semi-automated aggregation of individual facts on protein-protein interactionsinto knowledge corpora, reuse of this knowledge for instantiation of signalling models indifferent cellular contexts and generation of executable rule-based models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ahmadi, Naser. „A framework for the continuous curation of a knowledge base system“. Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS320.

Der volle Inhalt der Quelle
Annotation:
Les graphes de connaissances centrés sur les entités sont de plus en plus populaires pour recueillir des informations sur les entités. Les schémas des KG sont complexes, avec de nombreux types et prédicats différents pour définir les entités et leurs relations. Ces KG contiennent des connaissances spécifiques à un domaine, mais pour tirer le maximum de ces données, il faut comprendre la structure et les schémas du KG. Leurs données comprennent des entités et leurs types sémantiques pour un domaine spécifique. En outre, les propriétés des entités et les relations entre les entités sont stockées. En raison de l'émergence de nouveaux faits et entités et de l'existence de déclarations invalides, la création et la maintenance des KG est un processus sans fin. Dans cette thèse, nous présentons d'abord une approche destinée à créer un KG dans le domaine de l'audit en faisant correspondre des documents de différents niveaux. Nous introduisons ensuite des méthodes pour la curation continue des KGs. Nous présentons un algorithme pour la fouille des règles conditionnelles et l'appliquons sur de grands KGs. Ensuite, nous décrivons RuleHub, un corpus extensible de règles pour les KGs publiques qui fournit des fonctionnalités pour l'archivage et la récupération des règles. Nous proposons également des méthodes pour l'exploitation des règles logiques dans deux applications différentes: l'apprentissage de règles souples à des modèles de langage pré-entraînés (RuleBert) et la vérification explicable des faits (ExpClaim)
Entity-centric knowledge graphs (KGs) are becoming increasingly popular for gathering information about entities. The schemas of KGs are semantically rich, with many different types and predicates to define the entities and their relationships. These KGs contain knowledge that requires understanding of the KG’s structure and patterns to be exploited. Their rich data structure can express entities with semantic types and relationships, oftentimes domain-specific, that must be made explicit and understood to get the most out of the data. Although different applications can benefit from such rich structure, this comes at a price. A significant challenge with KGs is the quality of their data. Without high-quality data, the applications cannot use the KG. However, as a result of the automatic creation and update of KGs, there are a lot of noisy and inconsistent data in them and, because of the large number of triples in a KG, manual validation is impossible. In this thesis, we present different tools that can be utilized in the process of continuous creation and curation of KGs. We first present an approach designed to create a KG in the accounting field by matching entities. We then introduce methods for the continuous curation of KGs. We present an algorithm for conditional rule mining and apply it on large graphs. Next, we describe RuleHub, an extensible corpus of rules for public KGs which provides functionalities for the archival and the retrieval of rules. We also report methods for using logical rules in two different applications: teaching soft rules to pre-trained language models (RuleBert) and explainable fact checking (ExpClaim)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ogun, Sewade. „Generating diverse synthetic data for ASR training data augmentation“. Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0116.

Der volle Inhalt der Quelle
Annotation:
Au cours des deux dernières décennies, le taux d'erreur des systèmes de reconnaissance automatique de la parole (RAP) a chuté drastiquement, les rendant ainsi plus utiles dans les applications réelles. Cette amélioration peut être attribuée à plusieurs facteurs, dont les nouvelles architectures utilisant des techniques d'apprentissage profond, les nouveaux algorithmes d'entraînement, les ensembles de données d'entraînement grands et diversifiés, et l'augmentation des données. En particulier, les jeux de données d'entraînement de grande taille ont été essentiels pour apprendre des représentations robustes de la parole pour les systèmes de RAP. Leur taille permet de couvrir efficacement la diversité inhérente à la parole, en terme de voix des locuteurs, de vitesse de parole, de hauteur, de réverbération et de bruit. Cependant, la taille et la diversité des jeux de données disponibles dans les langues bien dotées ne sont pas accessibles pour les langues moyennement ou peu dotées, ainsi que pour des domaines à vocabulaire spécialisé comme le domaine médical. Par conséquent, la méthode populaire pour augmenter la diversité des ensembles de données est l'augmentation des données. Avec l'augmentation récente de la naturalité et de la qualité des données synthétiques pouvant être générées par des systèmes de synthèse de la parole (TTS) et de conversion de voix (VC), ces derniers sont également devenus des options viables pour l'augmentation des données de RAP. Cependant, plusieurs problèmes limitent leur application. Premièrement, les systèmes de TTS/VC nécessitent des données de parole de haute qualité pour l'entraînement. Par conséquent, nous développons une méthode de curation d'un jeux de données à partir d'un corpus conçu pour la RAP pour l'entraînement d'un système de TTS. Cette méthode exploite la précision croissante des estimateurs de qualité non intrusifs basés sur l'apprentissage profond pour filtrer les échantillons de haute qualité. Nous explorons le filtrage du jeux de données de RAP à différents seuils pour équilibrer sa taille, le nombre de locuteurs et la qualité. Avec cette méthode, nous créons un ensemble de données interlocuteurs de haute qualité, comparable en qualité à LibriTTS. Deuxièmement, le processus de génération de données doit être contrôlable pour générer des données TTS/VC diversifiées avec des attributs spécifiques. Les systèmes TTS/VC précédents conditionnent soit le système sur l'empreinte du locuteur seule, soit utilisent des modèles discriminatifs pour apprendre les variabilités de la parole. Dans notre approche, nous concevons une architecture améliorée basée sur le flux qui apprend la distribution de différentes variables de la parole. Nous constatons que nos modifications augmentent significativement la diversité et la naturalité des énoncés générés par rapport à une référence GlowTTS, tout en étant contrôlables. Enfin, nous avons évalué l'importance de générer des données des TTS et VC diversifiées pour augmenter les données d'entraînement de RAP. Contrairement à la génération naïve des données TTS/VC, nous avons examiné indépendamment différentes approches telles que les méthodes de sélection des phrases et l'augmentation de la diversité des locuteurs, la durée des phonèmes et les contours de hauteur, en plus d'augmenter systématiquement les conditions environnementales des données générées. Nos résultats montrent que l'augmentation TTS/VC est prometteuse pour augmenter les performances de RAP dans les régimes de données faibles et moyen. En conclusion, nos expériences fournissent un aperçu des variabilités particulièrement importantes pour la RAP et révèlent une approche systématique de l'augmentation des données de RAP utilisant des données synthétiques
In the last two decades, the error rate of automatic speech recognition (ASR) systems has drastically dropped, making them more useful in real-world applications. This improvement can be attributed to several factors including new architectures using deep learning techniques, new training algorithms, large and diverse training datasets, and data augmentation. In particular, the large-scale training datasets have been pivotal to learning robust speech representations for ASR. Their large size allows them to effectively cover the inherent diversity in speech, in terms of speaker voice, speaking rate, pitch, reverberation, and noise. However, the size and diversity of datasets typically found in high-resourced languages are not available in medium- and low-resourced languages and in domains with specialised vocabulary like the medical domain. Therefore, the popular method to increase dataset diversity is through data augmentation. With the recent increase in the naturalness and quality of synthetic data that can be generated by text-to-speech (TTS) and voice conversion (VC) systems, these systems have also become viable options for ASR data augmentation. However, several problems limit their application. First, TTS/VC systems require high-quality speech data for training. Hence, we develop a method of dataset curation from an ASR-designed corpus for training a TTS system. This method leverages the increasing accuracy of deep-learning-based, non-intrusive quality estimators to filter high-quality samples. We explore filtering the ASR dataset at different thresholds to balance the size of the dataset, number of speakers, and quality. With this method, we create a high-quality multi-speaker dataset which is comparable to LibriTTS in quality. Second, the data generation process needs to be controllable to generate diverse TTS/VC data with specific attributes. Previous TTS/VC systems either condition the system on the speaker embedding alone or use discriminative models to learn the speech variabilities. In our approach, we design an improved flow-based architecture that learns the distribution of different speech variables. We find that our modifications significantly increase the diversity and naturalness of the generated utterances over a GlowTTS baseline, while being controllable. Lastly, we evaluated the significance of generating diverse TTS and VC data for augmenting ASR training data. As opposed to naively generating the TTS/VC data, we independently examined different approaches such as sentence selection methods and increasing the diversity of speakers, phoneme duration, and pitch contours, in addition to systematically increasing the environmental conditions of the generated data. Our results show that TTS/VC augmentation holds promise in increasing ASR performance in low- and medium-data regimes. In conclusion, our experiments provide insight into the variabilities that are particularly important for ASR, and reveal a systematic approach to ASR data augmentation using synthetic data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Grégoire, Matthieu. „Optimisation de l'utilisation des céphalosporines en curatif et préventif d'infections bactériennes à partir de données PK/PD, de la pharmacocinétique de population, de simulations et d'une analyse du microbiote intestinal“. Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4077/document.

Der volle Inhalt der Quelle
Annotation:
Les céphalosporines, découvertes au milieu du 20ème siècle, appartiennent à la classe des bêta-lactamines et agissent en inhibant la synthèse du peptidoglycane bactérien. De nombreux facteurs peuvent impacter leur efficacité mais aussi leurs effets indésirables. Ce travail de Thèse articulé en 3 parties s'est intéressé à la pharmacocinétique de ces molécules mais également à leur cible pharmacodynamique au sein du microbiote digestif. Le premier volet traitait de l'antibioprophylaxie de la chirurgie bariatrique par céfazoline. Cette étude de population a permis de démontrer la supériorité des recommandations françaises sur les recommandations américaines et de proposer un schéma d'administration innovant en perfusion continue associant praticité d'utilisation et niveau d'efficacité élevé. Le second volet traitait de l'utilisation de la ceftriaxone à posologie élevée dans le traitement des infections neuro-méningées. Cette étude de population a conclu à l'intérêt d'adapter le schéma d'administration à la fonction rénale du patient avec une administration quotidienne pour les insuffisants rénaux contre 2 pour les normo-rénaux. Le dernier volet a permis de démontrer dans un modèle murin que la ceftriaxone sélectionnait plus d'entérobactéries productrices de bêta-lactamases à spectre élargi que le céfotaxime et que le profil métagénomique sélectionné par les 2 antibiotiques expliquait cette différence. L'ensemble de ces travaux s'intègre dans la dynamique actuelle de personnalisation des thérapeutiques antibiotiques à chaque patient et permet d'optimiser l'utilisation des céphalosporines
Cephalosporins, discovered in the middle of the 20th century, belong to the beta-lactam class and act by inhibiting the synthesis of bacterial peptidoglycan. Many factors can affect their effectiveness but also their adverse effects. This thesis work articulated in 3 parts was interested in the pharmacokinetics of these molecules but also their pharmacodynamics targets within the digestive microbiota. The first part dealt with the antibiotic prophylaxis of bariatric surgery with cefazolin. This population study has demonstrated the superiority of the French recommendations on American recommendations and to propose an innovative administration plan in continuous infusion combining practicality of use and high level of efficiency. The second part dealt with the use of high dose ceftriaxone in the treatment of meningeal infections. This population study concluded that it is useful to adapt the administration plan to the patient's renal function with once daily administration in case of renal insufficiency compared with twice in case of normorenal function. The last part of these work demonstrated in a mouse model that ceftriaxone selected more extensivespectrum beta-lactamase-producing enterobacteriaceae than cefotaxime and that the metagenomics profile selected by the two antibiotics explained this difference. All of this work fits into the current dynamics of personalization of antibiotic therapies for each patient and optimizes the use of cephalosporins
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Curation des données"

1

Data Stewardship for Open Science: Implementing FAIR Principles. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mons, Barend. Data Stewardship for Open Science: Implementing FAIR Principles. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mons, Barend. Data Stewardship for Open Science: Implementing FAIR Principles. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Mons, Barend. Data Stewardship for Open Science. Taylor & Francis Group, 2021.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Mons, Barend. Data Stewardship for Open Science: Implementing FAIR Principles. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Mons, Barend. Data Stewardship for Open Science: Implementing FAIR Principles. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Curation des données"

1

Sawchuk, Sandra, Louise Gillis und Lachlan MacLeod. „Soutenir la recherche reproductible avec la curation active de données“. In La gestion des données de recherche dans le contexte canadien: un guide pour la pratique et l'apprentissage. Western University, Western Libraries, 2023. http://dx.doi.org/10.5206/blaz5966.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie