Tesi sul tema "Rareté des données"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Rareté des données.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-33 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Rareté des données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Leroy, Boris. "Utilisation des bases de données biodiversité pour la conservation des taxons d’invertébrés : indices de rareté des assemblages d’espèces et modèles de prédiction de répartition d’espèces". Paris, Muséum national d'histoire naturelle, 2012. http://www.theses.fr/2012MNHN0033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les invertébrés sont sous-représentés en biologie de la conservation. Pour améliorer leur prise en compte, nous avons cherché à proposer des principes et outils pour leur conservation. Nous avons analysé des bases de données biodiversité — définies comme compilant les occurrences des espèces dans l’espace et dans le temps — qui sont les seules sources de données existantes pour la plupart des taxa invertébrés. Nous avons appliqué les principes d’amélioration de la qualité des données et avons exploité une méthode permettant de quantifier la complétude des bases de données. Nous avons tout d’abord développé un nouvel outil à l’échelle des assemblages d’espèces, en utilisant des bases de données araignées et invertébrés marins : l’Indice de Rareté Relative. Cet indice intègre un paramètre flexible (le seuil de rareté) permettant un ajustement de l’indice quels que soient les taxons, les zones géographiques ou les échelles spatiales considérés. Nous l’avons ensuite amélioré en proposant d’intégrer plusieurs échelles spatiales ou plusieurs phylums pour évaluer la rareté des assemblages. Nous avons ensuite développé des outils à l’échelle spécifique, les modèles de prédiction de répartition. Sur l’exemple des araignées, nous avons proposé une application adaptée à la conservation, en permettant de définir (1) quelles priorités de conservation pour les espèces et (2) où mettre en place les mesures de protection les plus susceptibles de réussir. Les principes et méthodes que nous avons développés permettent une utilisation appropriée des bases de données biodiversité disponibles, peuvent s’appliquer à d’autres taxons d’invertébrés et constituent des outils novateurs pour les programmes de conservation à différentes échelles
Invertebrate taxa are underrepresented in conservation biology. To improve their inclusion, we aimed at providing principles and tools for their conservation. We analysed biodiversity database —defined as databases compiling species occurrences in space and time— which are the only sources of data for most invertebrate taxa. We applied important principles of data quality, and used a metric to quantify the completeness of biodiversity databases. We first developed a new tool at the assemblage level on the basis of databases of spiders and marine invertebrates: the Index of Relative Rarity. This index integrates a flexible parameter (the rarity cutoff) which allows fitting the index with respect to the considered taxon, geographic area and spatial scale. We then improved this index by including multiple scales or multiple phyla to assess the rarity of assemblages. We then developed tools at the species level: species distribution models. Using spiders as an example, we proposed an appropriate application for conservation purposes, to (1) define conservation priorities for species and (2) identify where conservation actions are most likely to succeed. The principles and methods that we developed allow an appropriate use of available biodiversity databases for conservation, are transferable to other invertebrate taxa and are innovative tools for conservation programs across multiple spatial scales
2

Michellier, Caroline. "Contribuer à la prévention des risques d'origine géologique :l'évaluation de la vulnérabilité des populations dans un contexte de rareté de données. Les cas de Goma et Bukavu (RDCongo)". Doctoral thesis, Universite Libre de Bruxelles, 2017. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/257755.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En République Démocratique du Congo (RDC), les provinces densément peuplées du Nord et du Sud-Kivu sont exposées à plusieurs types d’aléas d’origine géologique, tels que les glissements de terrain et les éruptions volcaniques des volcans Nyiragongo et Nyamulagira. En outre, la région souffre d'un faible niveau économique et de conflits récurrents qui contribuent à affaiblir encore davantage la population menacée.Cette recherche doctorale a été réalisée dans le cadre du projet GeoRisCA (Belspo, programme SSD, SD/RI/02A ;http://georisca.africamuseum.be), dont l'objectif global répond à la nécessité d'étudier les risques d’origine géologique dans la région du lac Kivu, afin de contribuer à la prévention des risques, à l’échelle régionale et locale. Cette recherche tente spécifiquement de répondre à la question de l’évaluation de la vulnérabilité d'une population confrontée à des aléas d’origine géologique, dans un contexte de rareté de données.L'étude a été menée dans deux sites urbains :Bukavu, chef-lieu de la province du Sud-Kivu qui compte environ 870.000 habitants, une ville affectée par des mouvements de terrain fréquents, et Goma, chef-lieu de la province du Nord-Kivu où vivent environ 775.000 personnes sous la menace des coulées de lave du volcan Nyiragongo dont la dernière éruption date de 2002. Pour combler le manque de données socio-démographiques fiables, une méthodologie adaptée à ce contexte particulier et s'appuyant sur la télédétection combinée à des enquêtes quantitatives, des entretiens approfondis et une connaissance détaillée de la zone étudiée a été développée. Deux bases de données démographiques comprenant des variables individuelles et de ménages ont été construites - une pour chaque ville étudiée. Ces données ont constitué la base de la réalisation de cartes détaillées de densité de population et ont permis l’analyse spatiale des caractéristiques socio-économiques des deux zones urbaines. Un indice de vulnérabilité sociale a ensuite été élaboré à partir de l’analyse en composantes principales (ACP) d’un large éventail de ces données socio-économiques. Un indice de vulnérabilité dit « opérationnel » a ensuite été déduit de l’indice de vulnérabilité sociale, afin de refléter davantage le contexte local et faciliter la reproductibilité du travail de terrain. La dernière étape de notre étude consistait à combiner spatialement l’évaluation de la vulnérabilité et la densité de la population aux analyses de susceptibilité aux glissements de terrain et de probabilité d’invasion des coulées de lave développées par des experts dans le cadre du projet GeoRisCA. Les cartes de risques obtenues constituent de nouveaux outils d'aide à la décision ;elles ont été transmises aux autorités locales et permettent d’une part le renforcement des politiques de réduction des risques de catastrophes et des programmes de prévention des catastrophes, et d’autre part une nouvelle approche de l’aménagement du territoire. Enfin, il est important de souligner que cette recherche n’aurait pu être réalisée sans un étroit partenariat avec les institutions scientifiques et les autorités locales, et a significativement contribué à améliorer les interactions entre ces différentes parties prenantes.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
3

Li, Chuyuan. "Facing Data Scarcity in Dialogues for Discourse Structure Discovery and Prediction". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un document est plus qu'une combinaison aléatoire de phrases. Il s'agit plutôt d'une entité cohésive où les phrases interagissent les unes avec les autres pour créer une structure cohérente et transmettre des objectifs de communication spécifiques. Le domaine du discours examine l'organisation des phrases au sein d'un document, dans le but de révéler les informations structurelles sous-jacentes. L'analyse du discours joue un rôle crucial dans le Traitement Automatique des Langues (TAL) et a démontré son utilité dans diverses applications telles que le résumé et la question-réponse. Les efforts de recherche existants se sont concentrés sur l'extraction automatique des structures du discours à travers des tâches telles que l'identification des relations du discours et l'analyse du discours (discourse parsing). Cependant, ces méthodes axées sur les données ont été principalement appliquées à des scénarios de monologues, ce qui a conduit à une disponibilité et une généralisation limitées des analyseurs de discours pour les dialogues. Dans cette thèse, nous abordons ce problème difficile en raison de la rareté des données annotées : l'analyse du discours dans les dialogues. Nous abordons l'analyse du discours selon deux axes de recherche : la "découverte des traits du discours" et la "prédiction de la structure du discours". Dans la première ligne de recherche, nous menons des expériences pour étudier les marqueurs linguistiques, à la fois lexicaux et non lexicaux, dans les tâches de classification de texte. Nous nous intéressons particulièrement au contexte de l'identification des troubles mentaux car il reflète un scénario réaliste. Pour résoudre le problème de la rareté des données, nous proposons des techniques pour améliorer la représentation des données et l'ingénierie des traits. Nos résultats démontrent que les traits non lexicaux et au niveau du discours (même s'ils sont surfaciques) sont des indicateurs fiables pour développer des classificateurs plus généraux et plus robustes. Dans le deuxième axe de recherche, notre objectif est de prédire directement la structure du discours d'un document. Nous adoptons le cadre de la théorie Segmented Discourse Representation Theory (SDRT), qui représente un document sous la forme d'un graphe. L'extraction de cette structure graphique à l'aide de techniques d'apprentissage automatique est communément appelée "discourse parsing". En s'inspirant des études récentes portant sur le fonctionnement interne des modèles basés sur Transformer ("BERTology"), nous exploitons les informations discursives encodées dans les modèles de langage pré-entraînés (PLMs) tels que les Bidirectional Encoder Representations from Transformers (modèle BERT) et proposons des méthodes d'extraction innovantes qui nécessitent un minimum de supervision. Notre approche de l'analyse du discours comporte deux étapes : tout d'abord, nous prédisons la structure du discours, puis nous identifions les relations au sein de la structure. Ce processus en deux étapes permet une analyse complète des performances de l'analyseur à chaque étape. En utilisant des stratégies d'apprentissage auto-supervisé, notre analyseur obtient des résultats encourageants dans l'analyse complète du discours. Nous effectuons des analyses approfondies pour évaluer les performances de l'analyseur dans différentes structures de discours et proposons des pistes d'amélioration pour l'avenir
A document is more than a random combination of sentences. It is, instead, a cohesive entity where sentences interact with each other to create a coherent structure and convey specific communicative goals. The field of discourse examines the sentence organization within a document, aiming to reveal its underlying structural information. Discourse analysis plays a crucial role in Natural Language Processing (NLP) and has demonstrated its usefulness in various downstream applications like summarization and question answering. Existing research efforts have focused on automatically extracting discourse structures through tasks such as discourse relation identification and discourse parsing. However, these data-driven methods have predominantly been applied to monologue scenarios, leading to limited availability and generalizability of discourse parsers for dialogues. In this thesis, we address this challenging problem: discourse analysis in dialogues, which presents unique difficulties due to the scarcity of suitable annotated data.We approach discourse analysis along two research lines: “Discourse Feature Discovery” and “Discourse Structure Prediction”. In the first research line, we conduct experiments to investigate linguistic markers, both lexical and non-lexical, in text classification tasks. We are particularly interested in the context of mental disorder identification since it reflects a realistic scenario. To address the issue of data sparsity, we propose techniques for enhancing data representation and feature engineering. Our results demonstrate that non-lexical and discourse-level (even though shallow) features are reliable indicators in developing more general and robust classifiers. In the second research line, our objective is to directly predict the discourse structure of a given document. We adopt the Segmented Discourse Representation Theory (SDRT) framework, which represents a document as a graph. The task of extracting this graph-like structure using machine learning techniques is commonly known as discourse parsing. Taking inspiration from recent studies that investigate the inner workings of Transformer-based models (“BERTology”'), we leverage discourse information encoded in Pre-trained Language Models (PLMs) such as Bidirectional Encoder Representations from Transformers (BERT) and propose innovative extraction methods that require minimal supervision. Our discourse parsing approach involves two steps: first, we predict the discourse structure, and then we identify the relations within the structure. This two-stage process allows for a comprehensive analysis of the parser's performance at each stage. Using self-supervised learning strategies, our parser achieves encouraging results for the full parsing. We conduct extensive analyses to evaluate the parser's performance across different discourse structures and propose directions for future improvements
4

Falip, Joris. "Structuration de données multidimensionnelles : une approche basée instance pour l'exploration de données médicales". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS014/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'exploitation, a posteriori, des données médicales accumulées par les praticiens représente un enjeu majeur pour la recherche clinique comme pour le suivi personnalisé du patient. Toutefois les professionnels de santé manquent d'outils adaptés leur permettant d'explorer, comprendre et manipuler aisément leur données. Dans ce but, nous proposons un algorithme de structuration d'éléments par similarité et représentativité. Cette méthode permet de regrouper les individus d'un jeu de données autour de membres représentatifs et génériques aptes à subsumer les éléments et résumer les données. Cette méthode, procédant dimension par dimension avant d'agréger les résultats, est adaptée aux données en haute dimension et propose de plus des résultats transparents, interprétables et explicables. Les résultats obtenus favorisent l'analyse exploratoire et le raisonnement par analogie via une navigation de proche en proche : la structure obtenue est en effet similaire à l'organisation des connaissances utilisée par les experts lors du processus décisionnel qu'ils emploient. Nous proposons ensuite un algorithme de détection d'anomalies qui permet de détecter des anomalies complexes et en haute dimensionnalité en analysant des projections sur deux dimensions. Cette approche propose elle aussi des résultats interprétables. Nous évaluons ensuite ces deux algorithmes sur des données réelles et simulées dont les éléments sont décrits par de nombreuses variables : de quelques dizaines à plusieurs milliers. Nous analysant particulièrement les propriétés du graphe résultant de la structuration des éléments. Nous décrivons par la suite un outil de prétraitement de données médicales ainsi qu'une plateforme web destinée aux médecins. Via cet outil à l'utilisation intuitif nous proposons de structurer de manière visuelle les éléments pour faciliter leur exploration. Ce prototype fournit une aide à la décision et au diagnostique médical en permettant au médecin de naviguer au sein des données et d'explorer des patients similaires. Cela peut aussi permettre de vérifier des hypothèses cliniques sur une cohorte de patients
A posteriori use of medical data accumulated by practitioners represents a major challenge for clinical research as well as for personalized patient follow-up. However, health professionals lack the appropriate tools to easily explore, understand and manipulate their data. To solve this, we propose an algorithm to structure elements by similarity and representativeness. This method allows individuals in a dataset to be grouped around representative and generic members who are able to subsume the elements and summarize the data. This approach processes each dimension individually before aggregating the results and is adapted to high-dimensional data and also offers transparent, interpretable and explainable results. The results we obtain are suitable for exploratory analysis and reasoning by analogy: the structure is similar to the organization of knowledge and decision-making process used by experts. We then propose an anomaly detection algorithm that allows complex and high-dimensional anomalies to be detected by analyzing two-dimensional projections. This approach also provides interpretable results. We evaluate these two algorithms on real and simulated high-dimensional data with up to thousands of dimensions. We analyze the properties of graphs resulting from the structuring of elements. We then describe a medical data pre-processing tool and a web application for physicians. Through this intuitive tool, we propose a visual structure of the elements to ease the exploration. This decision support prototype assists medical diagnosis by allowing the physician to navigate through the data and explore similar patients. It can also be used to test clinical hypotheses on a cohort of patients
5

Maaroufi, Meriem. "Interopérabilité des données médicales dans le domaine des maladies rares dans un objectif de santé publique". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066275/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La santé se digitalise et de multiples projets d’e-santé se développent. Dans le contexte des maladies rares (MR), un champ qui est devenu parmi les priorités de la stratégie de santé publique en France, l’e-santé pourrait constituer une solution pour améliorer les connaissances sur l’épidémiologie des MR. La Banque Nationale de Données Maladies Rares (BNDMR) propose de centraliser la conduite de ces études épidémiologiques pour toutes les MR et tous les patients, atteints de ces maladies, suivis dans le système de soin français. La BNDMR doit se développer au sein d’un paysage numérique dense et hétérogène. Développer l’interopérabilité de la BNDMR constitue l’objectif des travaux de cette thèse. Comment identifier les patients, incluant les fœtus ? Comment fédérer les identités des patients? Comment chainer des données pour permettre la conduite des études ? En réponse à ces questions, nous proposons une méthode universelle d’identification des patients qui respecte les contraintes de protection des données de santé. Quelles données recueillir dans la BNDMR ? Comment améliorer l’interopérabilité entre ces données et celles issues du large éventail des systèmes existants ? En réponse à ces questions, nous proposons de standardiser le recueil d’un set minimal de données pour toutes les MR. L’implémentation de standards internationaux assure un premier pas vers l’interopérabilité. Nous proposons aussi d’aller à la découverte de correspondances. Minimiser l’intervention humaine en adoptant des techniques d’alignement automatisé et rendre fiables et exploitables les résultats de ces alignements ont constitué les principales motivations de notre proposition
The digitalization of healthcare is on and multiple e-health projects are unceasingly coming up. In the rare diseases context, a field that has become a public health policy priority in France, e-health could be a solution to improve rare diseases epidemiology and to propose a better care for patients. The national data bank for rare diseases (BNDMR) offers the centralization of these epidemiological studies conduction for all rare diseases and all affected patients followed in the French healthcare system. The BNDMR must grow in a dense and heterogeneous digital landscape. Developing the BNDMR interoperability is the objective of this thesis’ work. How to identify patients, including fetuses? How to federate patients’ identities to avoid duplicates creation? How to link patients’ data to allow studies’ conduction? In response to these questions, we propose a universal method for patients’ identification that meets the requirements of health data protection. Which data should be collected in the national data bank? How to improve and facilitate the development of interoperability between these data and those from the wide range of the existing systems? In response to these questions, we first propose the collection of a standardized minimum data set for all rare diseases. The implementation of international standards provides a first step toward interoperability. We then propose to move towards the discovery of mappings between heterogeneous data sources. Minimizing human intervention by adopting automated alignment techniques and making these alignments’ results reliable and exploitable were the main motivations of our proposal
6

Alamé, Melissa. "Intégration de données et caractérisation du microenvironnement tumoral de tumeurs rares". Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTT046.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le recueil des données issues des technologies de haut débit, et en particulier le séquençage de nouvelle génération (NGS) a largement contribué à la compréhension de la biologie des tumeurs et leurs classifications moléculaires, par notamment la caractérisation d’anomalies génétiques diagnostiques, pronostiques, ou ciblant les patients éligibles à certaines thérapeutiques (théranostique). Ces marqueurs du cancer ont intégré les panels d’analyses médicales existantes et promeuvent une médecine davantage personnalisée en oncologie.La compréhension de la contribution du microenvironnement tumoral (MET) dans la progression tumorale, et l’identification de mécanismes de résistance aux traitements, a révolutionné la biologie du cancer et la prise en charge des patients en oncologie. A l’ère des immunothérapies, la classification des tumeurs sur la base de la composition de leur MET a identifié des groupes de patients qui corrèlent avec la survie et la réponse à certains traitements. Ainsi, pour une majorité des cancers, une classification immunologique des tumeurs a été établie, complétant les classifications histologiques et moléculaires précédemment érigées. Malgré de considérables efforts, ces classifications immunologiques et moléculaires demeurent incomplètes. En particulier, certaines entités tumorales rares et agressives nécessitent une caractérisation approfondie. En outre, la majorité des études portant sur le MET se sont davantage concentrées sur l’étude de la composition cellulaire et semblent avoir négligé la cartographie des réseaux d’interactions intercellulaires des cancers. L’avènement des technologies basées sur la cellule unique répond à cet impair, mais se focalise essentiellement sur les cancers fréquents.Dans ma thèse, j’ai intégré différentes méthodes d’analyse de données et j’ai développé une nouvelle approche inférant des réseaux d’interactions ligand – récepteur, s’appuyant sur une base de données (LRdb), développée par l’équipe du Pr Colinge, pour caractériser le MET de deux tumeurs rares, les carcinomes canalaires de la glande salivaire et les lymphomes B diffus à grandes cellules B primitifs du SNC.La combinaison de méthodes bioinformatiques et d’analyses statistiques multivariées classiques et avancées, m’a permis d’intégrer des données de transcriptomique totale et de protéomique provenant d’échantillons frais et de données TCGA. Les techniques informatiques utilisées ont été complétées par des technologies d’immunomarquage couplées à de l’analyse d’images digitales afin de recueillir des validations expérimentales.D’importants efforts ont été déployés pour placer nos résultats dans une perspective clinique. En particulier, cette approche a permis d’identifier des groupes de MET d’intérêt clinique, des mécanismes d’évasion immune et de résistance à certains traitements, de nouveaux axes thérapeutiques, et des biomarqueurs
The development of high-throughput technologies, especially Next Generation Sequencing, has triggered considerable advances in tumor understanding and molecular classification. Patient subgroups for a same tumor have been defined and characterized. Those subgroups are typically associated with a particular prognosis or eligible to a specific targeted therapy. These progresses paved the way towards personalized medicine.The understanding of the contribution of the tumor microenvironment (TME) to disease aggressiveness, progression, and therapy resistance is another revolution in cancer biology and patient care. The contribution of the aforementioned high-throughput technologies was essential. At the era of immunotherapy, the sub-classification of tumors based on their TME composition identified patient subgroups correlated to survival and to their response to this particular class of drugs. Despite a formidable community effort, the molecular and immunological classification of tumors has not been completed for every cancer, some rare and aggressive entities still require thorough characterization. Moreover, most TME studies have focused on the cellular composition and they neglected the mapping of the intercellular communications networks occurring in neoplasms. The advent of single-cell technologies is filling this gap, but with a strong focus on the most frequent cancers.In my thesis, I have both deployed advanced data integration methods and a novel approach to infer ligand-receptor networks relied on a database (LRdb), which is developed by the Colinge Lab, to characterize the TME of two rare tumors, Salivary Duct Carcinoma (SDC) and Primary Central Nervous System Diffuse Large B-Cell Lymphoma (PCNSL). I have combined classical – yet advanced – bioinformatic and multivariate statistics methods integrating bulk transcriptomics and proteomics data, including fresh and TCGA data. Those computational techniques were supplemented with immunofluorescence and immunohistochemistry coupled with digital imaging to obtain experimental validations. To accommodate limited patient cohorts, I have searched for highly coherent messages at all the levels of my analyses. I also devoted important efforts relating our findings with the literature to put them in a clinical perspective. In particular, our approach revealed TME groups of tumors with particular prognosis, immune evasion and therapy resistance mechanisms, several clinical biomarkers, and new therapeutic perspectives
7

Garcelon, Nicolas. "Problématique des entrepôts de données textuelles : dr Warehouse et la recherche translationnelle sur les maladies rares". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB257/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réutilisation des données de soins pour la recherche s’est largement répandue avec le développement d’entrepôts de données cliniques. Ces entrepôts de données sont modélisés pour intégrer et explorer des données structurées liées à des thesaurus. Ces données proviennent principalement d’automates (biologie, génétique, cardiologie, etc) mais aussi de formulaires de données structurées saisies manuellement. La production de soins est aussi largement pourvoyeuse de données textuelles provenant des comptes rendus hospitaliers (hospitalisation, opératoire, imagerie, anatomopathologie etc.), des zones de texte libre dans les formulaires électroniques. Cette masse de données, peu ou pas utilisée par les entrepôts classiques, est une source d’information indispensable dans le contexte des maladies rares. En effet, le texte libre permet de décrire le tableau clinique d’un patient avec davantage de précisions et en exprimant l’absence de signes et l’incertitude. Particulièrement pour les patients encore non diagnostiqués, le médecin décrit l’histoire médicale du patient en dehors de tout cadre nosologique. Cette richesse d’information fait du texte clinique une source précieuse pour la recherche translationnelle. Cela nécessite toutefois des algorithmes et des outils adaptés pour en permettre une réutilisation optimisée par les médecins et les chercheurs. Nous présentons dans cette thèse l'entrepôt de données centré sur le document clinique, que nous avons modélisé, implémenté et évalué. À travers trois cas d’usage pour la recherche translationnelle dans le contexte des maladies rares, nous avons tenté d’adresser les problématiques inhérentes aux données textuelles: (i) le recrutement de patients à travers un moteur de recherche adapté aux données textuelles (traitement de la négation et des antécédents familiaux), (ii) le phénotypage automatisé à partir des données textuelles et (iii) l’aide au diagnostic par similarité entre patients basés sur le phénotypage. Nous avons pu évaluer ces méthodes sur l’entrepôt de données de Necker-Enfants Malades créé et alimenté pendant cette thèse, intégrant environ 490 000 patients et 4 millions de comptes rendus. Ces méthodes et algorithmes ont été intégrés dans le logiciel Dr Warehouse développé pendant la thèse et diffusé en Open source depuis septembre 2017
The repurposing of clinical data for research has become widespread with the development of clinical data warehouses. These data warehouses are modeled to integrate and explore structured data related to thesauri. These data come mainly from machine (biology, genetics, cardiology, etc.) but also from manual data input forms. The production of care is also largely providing textual data from hospital reports (hospitalization, surgery, imaging, anatomopathologic etc.), free text areas in electronic forms. This mass of data, little used by conventional warehouses, is an indispensable source of information in the context of rare diseases. Indeed, the free text makes it possible to describe the clinical picture of a patient with more precision and expressing the absence of signs and uncertainty. Particularly for patients still undiagnosed, the doctor describes the patient's medical history outside any nosological framework. This wealth of information makes clinical text a valuable source for translational research. However, this requires appropriate algorithms and tools to enable optimized re-use by doctors and researchers. We present in this thesis the data warehouse centered on the clinical document, which we have modeled, implemented and evaluated. In three cases of use for translational research in the context of rare diseases, we attempted to address the problems inherent in textual data: (i) recruitment of patients through a search engine adapted to textual (data negation and family history detection), (ii) automated phenotyping from textual data, and (iii) diagnosis by similarity between patients based on phenotyping. We were able to evaluate these methods on the data warehouse of Necker-Enfants Malades created and fed during this thesis, integrating about 490,000 patients and 4 million reports. These methods and algorithms were integrated into the software Dr Warehouse developed during the thesis and distributed in Open source since September 2017
8

Garret, Philippine. "Approches bioinformatiques innovantes pour l’analyse de données de séquençage à haut-débit appliquées à l’étude de pathologies génétiques rares avec anomalies du développement". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCK020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’avènement du séquençage haut débit d’exome (SHD-E) en diagnostic et en recherche ces dernières années a conduit à l’identification des bases génétiques de nombreuses pathologies mendéliennes, permettant de résoudre de nombreuses situations d’errance diagnostique. Néanmoins, l’analyse des données de SHD-E permet uniquement d’identifier des variations pathogènes ou probablement pathogènes dans 30 à 45 % des situations sans diagnostic. En effet, certaines limites existent, tant au niveau clinique, moléculaire et bioinformatique. L’évolution constante des connaissances cliniques, du nombre de nouveaux gènes impliqués en pathologie humaine, et des corrélations clinico-biologique a un impact important sur l’analyse des données, entraînant une amélioration progressive de la recherche diagnostique. Des limites techniques inhérentes à la technologie, avec en particulier des régions non couvertes, existent, mais se sont également significativement réduites ces dernières années. Enfin, au-delà de l’analyse de SNV et de CNV, d’autres anomalies génétiques peuvent être responsables de maladies rares, nécessitant un développement bioinformatique pour optimiser les résultats. Bien que le séquençage à haut débit du génome permette de résoudre des observations, en particulier en cas de variations dans les régions non codantes ou les variants de structure, il existe encore de nombreuses informations à extraire et à exploiter à partir des données de SHD-E.L’objectif de cette thèse a donc été de participer à l’amélioration des approches bioinformatiques d’analyse de données de SHD-E pour l’identification de nouveaux gènes ou mécanismes moléculaires impliqués dans des maladies génétiques rares afin de réduire l’errance diagnostique des patients.Plusieurs stratégies ont ainsi été mises en place. La première stratégie a consisté en une réanalyse recherche de données de 80 patients ayant bénéficié d’un SHD-E au laboratoire CERBA (thèse CIFRE) dont la lecture diagnostique était négative. Elle a conduit à la mise en évidence deux nouveaux gènes candidats dans la déficience intellectuelle syndromique, dont le gène OTUD7A (article 1). La deuxième stratégie a consisté en la mise au point d’un pipeline bioinformatique pour extraire les données du génome mitochondrial à partir des données de SHD-E. L’ADN mitochondrial n’est pas ciblé par les kits de capture d’exome mais peut être extrait des données capturées indirectement rendant son analyse possible à partir de données de SHD-E préexistantes. A partir de la collection GAD d’exomes de patients sans diagnostic, deux variations causales ont été identifiées chez deux individus atteints de troubles neuro-développementaux sur 928 personnes étudiées, et ainsi résoudre une errance diagnostique dans 0,2 % des patients sans diagnostic (article 2). La troisième stratégie a consisté en la mise en place d’un pipeline bioinformatique d’identification des éléments mobiles au sein des données d’exome, étant attendu qu’environ 0,3 % des variations pathogènes du génome humain ont pour origine l’insertion de novo d’un élément mobile. A partir de la collection GAD d’exomes de 3322 patients sans diagnostic, cette étape a permis d’identifier deux cas en lien avec l’insertion d’un élément Alu au sein d’un exon du gène FERMT1 et du gène GRIN2B (article 3 en cours d’écriture).Cette thèse a permis de repousser certaines limites de la technologie d’exome. D’autres perspectives existent, et sont explorées par l’équipe, en lien avec le projet Européen Solve-RD
In the last years, the advent of exome sequencing (ES) in diagnosis and in research led to the identification of the genetic bases of many Mendelian disorders, allowing many diagnostic wavering cases to be solved. Nevertheless, ES data analysis only leads to the identification of pathogenic or likely pathogenic variants in 30 to 45 % of the undiagnosed cases. Indeed, some limits exist, both at clinical, molecular and bioinformatic levels. The constant evolution of the clinical knowledge, of the number of genes involved in human diseases, and of the clinical-biological correlations, has a significant impact on data analysis, leading to a progressive improvement in diagnostic research. Limits of the current technologies, especially not covered regions, exist, but have been significantly reduced in the recent years. Although genome sequencing will solve some undiagnosed cases, especially in case of non-coding or structural variants, there is still a lot of information to be extracted and analyzed from ES data. Finally, beyond SNV and CNV analyzes, other genetic events can be involved in rare disorders, requiring a bioinformatic development to optimize results.The aim of the project was therefore to improve bioinformatic approaches of ES data analysis in order to identify new molecular mechanisms involved in rare genetic disorders and reduce diagnostic wavering.Several strategies were established. The first one consisted in reanalysing ES data from 80 undiagnosed patients, who were sequenced by the Laboratoire CERBA (CIFRE thesis). It led to the identification of 2 new candidate genes involved in ID, especially OTUD7A gene (article 1). The second strategy was the development of a bioinformatic pipeline in order to extract mitochondrial DNA data from ES data. The mitochondrial genome is not targeted by exome capture kits but can be extracted from off-target data, giving the opportunity to analyze it from preexisting ES data. From the GAD exomes cohort of undiagnosed patients, 2 causal variations were identified in 2 individuals out of 928, affected with neuro-developmental disorder. It thus solved the diagnostic wavering in 0.2 % of patients without diagnosis (article 2). The third strategy consisted in the development of a bioinformatic pipeline to identify mobile elements insertion within ES data, with the expectation that about 0.03 % of the pathogenic variants originate from de novo mobile element insertion. From the GAD exomes cohort of 3322 undiagnosed patients, this step led to the identification of two Alu element insertions in FERMT1 and GRIN2B gene exons (article 3, in process).This PhD permitted to push out some ES limits. Other perspectives exist, and are explored by the GAD team, in connection with the European Solve-RD project
9

Himoudi, Abdelilah. "Simulation numérique de la cinétique des ions dans les gaz rares faiblement ionisés : détermination des données de base". Toulouse 3, 1993. http://www.theses.fr/1993TOU30171.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est consacre a l'etude du transport des ions et a la determination des donnees de bases des ions necessaires a la modelisation des decharges electriques. Un rappel bibliographique est d'abord effectue sur les methodes de determination theoriques et experimentales des parametres de transport et des sections efficaces des ions afin de montrer les lacunes et les limitations concernant la precision et les intervalles d'energie ou de champ electrique reduit e/n. Puis, les equations cinetiques, permettant la simulation des experiences de mesure des parametres de transport des ions, sont decrites en insistant sur la difficulte specifique a l'operateur de collision ion-atome. Ensuite, un algorithme monte carlo s'affranchissant de cette difficulte et considerant correctement la cinematique de la collision a ete developpe pour etudier le transport des ions dans leurs gaz parents, non parents et dans les melanges de gaz. Une etude bibliographique sur les donnees de base des ions a montre la necessite de completer ou de determiner, a l'aide d'une methode de deconvolution des parametres de transport, les sections efficaces de collision ion-atome des ions dans les gaz rares surtout aux faibles valeurs de l'energie relative ou les mesures sont quasi inexistantes. Apres avoir analyse et montre la non-validite des lois macroscopiques habituelles (loi de blanc ou relation de viehland et mason,. . . ), l'ensemble des sections efficaces ainsi obtenues a permis de determiner, a l'aide de la methode de monte carlo, les parametres de transport pour un large intervalle de champs e/n (jusqu'a 10 000 td) des ions (h#+, he#+, ne#+, ar#+, xe#+) dans les gaz rares et leurs melanges (he-xe, ar-ne)
10

Chennen, Kirsley. "Maladies rares et "Big Data" : solutions bioinformatiques vers une analyse guidée par les connaissances : applications aux ciliopathies". Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAJ076/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, la recherche biomédicale et la pratique médicale ont été révolutionné par l'ère post-génomique et l'émergence des « Big Data » en biologie. Il existe toutefois, le cas particulier des maladies rares caractérisées par la rareté, allant de l’effectif des patients jusqu'aux connaissances sur le domaine. Néanmoins, les maladies rares représentent un réel intérêt, car les connaissances fondamentales accumulées en temps que modèle d'études et les solutions thérapeutique qui en découlent peuvent également bénéficier à des maladies plus communes. Cette thèse porte sur le développement de nouvelles solutions bioinformatiques, intégrant des données Big Data et des approches guidées par la connaissance pour améliorer l'étude des maladies rares. En particulier, mon travail a permis (i) la création de PubAthena, un outil de criblage de la littérature pour la recommandation de nouvelles publications pertinentes, (ii) le développement d'un outil pour l'analyse de données exomique, VarScrut, qui combine des connaissance multiniveaux pour améliorer le taux de résolution
Over the last decade, biomedical research and medical practice have been revolutionized by the post-genomic era and the emergence of Big Data in biology. The field of rare diseases, are characterized by scarcity from the patient to the domain knowledge. Nevertheless, rare diseases represent a real interest as the fundamental knowledge accumulated as well as the developed therapeutic solutions can also benefit to common underlying disorders. This thesis focuses on the development of new bioinformatics solutions, integrating Big Data and Big Data associated approaches to improve the study of rare diseases. In particular, my work resulted in (i) the creation of PubAthena, a tool for the recommendation of relevant literature updates, (ii) the development of a tool for the analysis of exome datasets, VarScrut, which combines multi-level knowledge to improve the resolution rate
11

Rida, Hania. "Nouvelles données sur les systèmes graphite-lithium-europium et graphite-lithium-calcium". Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10019/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La méthode solide-liquide en milieu alliage fondu à base de lithium a permis ces dernières années la synthèse de plusieurs composés d'intercalation du graphite (CIG) insérés à coeur au sein des systèmes graphite-lithium-alcalino-terreux. Dans le cadre de cette thèse, cette méthode de synthèse a été étendue aux systèmes graphite-lithium-lanthanoïde, avec une difficulté supplémentaire qui est la méconnaissance des diagrammes de phases binaires lithium-lanthanoïde dont les données sont capitales pour déterminer les domaines de température et de composition chimique des alliages susceptibles de conduire à des CIG. L'immersion de plaquettes de pyrographite dans certains alliages lithium-europium judicieusement choisis a mené à un composé binaire EuC6 ainsi qu'à un composé ternaire graphite-lithium-europium de premier stade.La cinétique de formation de EuC6 a été suivie par diffraction des rayons X ex situ afin de comprendre les différentes étapes de la réaction et d'identifier les phases intermédiaires menant au composé final thermodynamiquement stable. Ce mécanisme révèle un processus réactionnel plus « coopératif » que celui menant au composé CaC6 et a été décrit par une succession d'étapes contribuant à l'insertion à coeur de l'europium.La composition élémentaire du composé ternaire a été déterminée grâce à une analyse par faisceau d'ions qui a permis de doser simultanément les trois éléments lithium, carbone et europium. Le résultat de cette analyse a conduit à la formule chimique Li0,25Eu1,95C6. EuC6 a également été étudié par microsonde nucléaire, le rapport atomique C/Eu de 6 a ainsi notamment pu être confirmé.Des études structurales ont été menées pour les composés binaires et ternaires. D'une part, il a été possible d'effectuer la résolution structurale complète du binaire EuC6, qui cristallise dans une maille hexagonale de groupe d'espace P63/mmc. D'autre part pour le ternaire Li0,25Eu1,95C6, la séquence d'empilement poly-couche selon l'axe c du feuillet inséré a été modélisée, par combinaison des données structurales avec les informations issues de l'analyse par faisceau d'ions.Les composés d'intercalation du graphite sont des solides de basse dimensionnalité qui se prêtent idéalement à l'étude des relations structure-propriétés. Ainsi dans le système graphite-lithium-calcium, le caractère supraconducteur des composés CaC6 et Li3Ca2C6 a été étudié par spectroscopie de spin de muon ([mu]SR). Pour le système graphite-lithium-europium, des mesures magnétiques réalisées préalablement à ce travail ont été poursuivies et complétées par des analyses [mu]SR (pour Li0,25Eu1,95C6 et EuC6) ainsi que par spectrométrie Mössbauer de 151Eu (pour Li0,25Eu1,95C6) à basse température
The molten alloy solid-liquid method containing lithium has recently enabled the synthesis of several bulk graphite intercalation compounds (GICs) in graphite-lithium-alkaline earth metal systems. As part of this thesis, this synthesis method was extended to graphite-lithium-lanthanide systems, with an additional difficulty which is the lack of knowledge of lithium-lanthanide binary phase diagrams whose data are crucial for determining the temperature range and chemical composition of alloys that may lead to GICs.The immersion of pyrographite platelets in some europium-lithium alloys wisely chosen led to a binary EuC6 compound as well as a graphite-lithium-europium first stage ternary compound.Kinetics study of EuC6 compound was followed by ex situ X-ray diffraction in order to understand the different reaction steps and identify intermediate phases leading to the thermodynamically stable final compound. This mechanism revealed a reaction process more "cooperative" than that leading to CaC6 binary compound and was described by a succession of steps that contribute to the bulk insertion of europium.The elementary composition of the ternary compound was determined by ions beam analysis allowing the simultaneous quantification of the three elements lithium, carbon and europium. The refinement of these analyses led to the chemical formula Li0,25Eu1,95C6 for the ternary compound. EuC6 has also been studied by nuclear microprobe analysis, and especially the C/Eu atomic ratio equal to 6 has been confirmed.Structural studies have been undertaken for binary and ternary compounds. On one hand, it was possible to fully resolve the three-dimensional structure of the binary EuC6, which crystallizes in a hexagonal unit cell with P63/mmc space group. On the other hand, the c axis stacking sequence of the poly-layered intercalated sheet of the ternary compound was modeled by combining structural data with information from the ions beam analysis. The graphite intercalation compounds are low-dimensional solids that are ideal for the study of structure-properties relations. Thus in graphite-lithium-calcium system, superconducting character has been studied for CaC6 and Li3Ca2C6 compounds by muons spin spectroscopy ([mu]SR). For the graphite-lithium-europium system, previous magnetic measurements have been continued and supplemented by [mu]SR analysis (for Li0,25Eu1,95C6 and EuC6) and by low temperature 151Eu Mössbauer spectroscopy (for Li0,25Eu1,95C6)
12

Szathmary, Laszlo. "Méthodes symboliques de fouille de données avec la plate-forme Coron". Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00336374.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le sujet principal de cette thèse est l'extraction de connaissances dans les bases de données (ECBD). Plus précisément, nous avons étudié deux des plus importantes tâches d'ECBD actuelles, qui sont l'extraction de motifs et la génération de règles d'association. Tout au long de notre travail, notre objectif a été de trouver des règles d'associations intéressantes selon plusieurs points de vue : dans un but de fouille efficace, pour réduire au minimum l'ensemble des règles extraites et pour trouver des unités de connaissances intelligibles (et facilement interprétables). Pour atteindre ce but, nous avons développé et adapté des algorithmes spécifiques.
Les contributions principales de cette thèse sont : (1) nous avons développé et adapté des algorithmes pour trouver les règles d'association minimales non-redondantes ; (2) nous avons défini une nouvelle base pour les règles d'associations appelée “règles fermées” ; (3) nous avons étudié un champ de l'ECBD important mais relativement peu étudié, à savoir l'extraction des motifs rares et des règles d'association rares ; (4) nous avons regroupé nos algorithmes et une collection d'autres algorithmes ainsi que d'autres opérations auxiliaires d'ECBD dans une boîte à outils logicielle appelée Coron.
13

Brard, Caroline. "Approche Bayésienne de la survie dans les essais cliniques pour les cancers rares". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS474/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'approche Bayésienne permet d’enrichir l'information apportée par l'essai clinique, en intégrant des informations externes à l'essai. De plus, elle permet d’exprimer les résultats directement en termes de probabilité d’un certain effet du traitement, plus informative et interprétable qu’une p-valeur et un intervalle de confiance. Par ailleurs, la réduction fréquente d’une analyse à une interprétation binaire des résultats (significatif ou non) est particulièrement dommageable dans les maladies rares. L’objectif de mon travail était d'explorer la faisabilité, les contraintes et l'apport de l'approche Bayésienne dans les essais cliniques portant sur des cancers rares lorsque le critère principal est censuré. Tout d’abord, une revue de la littérature a confirmé la faible implémentation actuelle des méthodes Bayésiennes dans l'analyse des essais cliniques avec critère de survie.Le second axe de ce travail a porté sur le développement d’un essai Bayésien avec critère de survie, intégrant des données historiques, dans le cadre d’un essai réel portant sur une pathologie rare (ostéosarcome). Le prior intégrait des données historiques individuelles sur le bras contrôle et des données agrégées sur l’effet relatif du traitement. Une large étude de simulations a permis d’évaluer les caractéristiques opératoires du design proposé, de calibrer le modèle, tout en explorant la problématique de la commensurabilité entre les données historiques et actuelles. Enfin, la ré-analyse de trois essais cliniques publiés a permis d’illustrer l'apport de l'approche Bayésienne dans l'expression des résultats et la manière dont cette approche permet d’enrichir l’analyse fréquentiste d’un essai
Bayesian approach augments the information provided by the trial itself by incorporating external information into the trial analysis. In addition, this approach allows the results to be expressed in terms of probability of some treatment effect, which is more informative and interpretable than a p-value and a confidence interval. In addition, the frequent reduction of an analysis to a binary interpretation of the results (significant versus non-significant) is particularly harmful in rare diseases.In this context, the objective of my work was to explore the feasibility, constraints and contribution of the Bayesian approach in clinical trials in rare cancers with a primary censored endpoint. A review of the literature confirmed that the implementation of Bayesian methods is still limited in the analysis of clinical trials with a censored endpoint.In the second part of our work, we developed a Bayesian design, integrating historical data in the setting of a real clinical trial with a survival endpoint in a rare disease (osteosarcoma). The prior incorporated individual historical data on the control arm and aggregate historical data on the relative treatment effect. Through a large simulation study, we evaluated the operating characteristics of the proposed design and calibrated the model while exploring the issue of commensurability between historical and current data. Finally, the re-analysis of three clinical trials allowed us to illustrate the contribution of Bayesian approach to the expression of the results, and how this approach enriches the frequentist analysis of a trial
14

Nambot, Sophie. "Exploration pangénomique des anomalies du développement de causes rares". Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCI012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Titre : Exploration pangénomique des anomalies du développement de causes raresMots clés : anomalies du développement, séquençage d’exome, paratage de données, phénotypage inverseLes anomalies du développement sont un groupe de maladies hétérogènes, tant sur le plan clinique que moléculaire. Elles comprennent plus de 3.000 maladies monogéniques, mais seulement un tiers d’entre elles ont actuellement une cause moléculaire connue. Bien que les progrès des techniques de séquençage aient permis d’identifier des centaines de nouveaux gènes ces dernières années, de nombreux patients restent encore sans diagnostic. La grande hétérogénéité génétique de ces pathologies met à l’épreuve la démarche diagnostique classique comprenant une expertise clinique, une étude pan-génomique par puce à ADN et/ou l’analyse ciblée de gènes connus et, depuis peu, le séquençage haut débit d’exome ciblé sur les gènes associés à une pathologie humaine. En attendant que le séquençage du génome soit économiquement plus accessible et l’interprétaion des ses données mieux appréhendée pour une utilisation diagnostique, nous avons choisi d’explorer de nouvelles stratégies afin d’optimiser le séquençage d’exome dans l’identification de nouvelles bases moléculaires.Le premier article a pour objectif de démontrer la faisabilité et l’efficacité de la réanalyse annuelle des données de séquençage d’exome négatif dans un cadre diagnostique. Les patients éligibles à l’étude présentaient une anomalie du développement sans cause moléculaire établie après une démarche diagnostique classique incluant une analyse chromosomique sur puce à ADN et une analyse d’exome diagnostique. Cette première étude a permis de réaliser un nombre significatif de diagnostics supplémentaires, mais aussi d’identifier des variations candidates pour lesquelles nous avons utilisé le partage international de données et l’approche de phénotypage inverse pour établir des corrélations phénotype-génotype et des cohortes de réplication génotypique et/ou phénotypique. Ces stratégies nous ont permis de remplir les critères ACMG nécessaires pour établir la pathogénicité de ces variations.Fort de cette expérience et souhaitant aller plus loin dans l’identification de nouvelles bases moléculaires pour nos patients, nous avons poursuivi cet effort de réanalyse dans un cadre de recherche. Ce travail fait l’objet du second article de cette thèse et a conduit à l’identification de 17 nouveaux gènes d’anomalies du développement. Le partage de données a conduit à l’élaboration de nombreuses collaborations internationales et de plusieurs études fonctionnelles par des équipes spécialisées.L’application de ces outils dans une forme syndromique de déficience intellectuelle ultra-rare est illustrée à travers le troisieme article. Suite à un effort collaboratif important, nous avons pu décrire de manière précise le phénotype de 25 patients jamais rapportés dans la littérature porteurs de variations pathogènes au sein du gène TBR1, gène candidat dans les troubles du spectre autistique associés à une déficience intellectuelle.Ces différents travaux démontrent l’efficacité de stratégies innovantes dans l’identification de nouvelles bases moléculaires chez les patients atteints d’anomalies du développement, à savoir la réanalyse des données d’exome, le phénotypage inverse et le partage international de données. Pour les patients et leur famille, cela permet de comprendre l’origine de leur pathologie, de mettre fin à l’errance diagnostique, de préciser le pronostic et l’évolution développementale probable, et la mise en place d’une prise en charge adaptés. Il est aussi indispensable pour fournir un conseil génétique fiable, et éventuellement proposer un diagnostic prénatal voire pré-implantatoire. Pour les généticiens, cela permet la compréhension de nouveaux processus physiopathologiques, l’élaboration de nouveaux tests diagnostiques et la découverte de nouvelles cibles thérapeutiques
Title : Genome-wide exploration of congenital anomalies of rare causesKey words : congenital anomalies, exome sequencing, data-sharing, reverse phenotypingCongenital anomalies are a group of diseases that are both clinically and molecularly heterogeneous. They include more than 3,000 monogenic diseases, but only a third of them have a known molecular cause. Although advances in sequencing techniques have identified hundreds of new genes in recent years, many patients remain undiagnosed. The vast genetic heterogeneity of these conditions challenges the conventional diagnostic approach that typically includes clinical expertise, a pan-genomic microarray study and/or targeted analysis of known genes and, recently, exome sequencing targeting the genes already associated with human disease. Until genome sequencing becomes more affordable and the interpretation of its data for diagnostic use is better perceived, we have chosen to explore new strategies to optimize the identification of new molecular bases through exome sequencing.The first article aimed to demonstrate the feasibility and effectiveness of annual reanalysis of negative exome sequencing data in a diagnostic setting. Patients eligible for the study had developmental anomalies, but no molecular cause was established after a standard diagnostic procedure including DNA chromosome analysis and diagnostic exome analysis. This first study yielded a significant number of additional diagnoses, but also identified candidate variants for which we used international data-sharing and reverse phenotyping to establish cohorts of genotypic and/or phenotypic replication and genotype-phenotype correlations. These strategies allowed us to meet the ACMG criteria necessary to establish the pathogenicity of these variants.With this experience, and because we wished to go further in identifying new molecular bases for our patients, we continued the reanalysis project within a research framework. This was the focus of the second article of this thesis. The reanalysis project led to the identification of 17 new genes associated with congenital anomalies. Data-sharing has led to the development of numerous international collaborations and functional studies carried out by specialized teams.The third article illustrated the application of these tools in a syndromic form of ultra-rare intellectual disability. Following a considerable collaborative effort, we were able to accurately describe the phenotype of 25 unreported patients in the literature with pathogenic variants in the TBR1 gene, a candidate gene in autism spectrum disorders associated to intellectual disability.These various studies demonstrate how innovative strategies can be effective for identifying new molecular bases in patients with congenital anomalies. These strategies include exome data reanalysis, reverse phenotyping, and international data-sharing. For patients and their families, knowing the molecular basis of the disease makes it possible to understand the origin of the condition and to put an end to diagnostic wandering. In addition, they are able to learn more about the prognosis and developmental progression, and they can obtain appropriate care management. This information is also essential for reliable genetic counseling, and may offer the possibility of prenatal or even pre-implantation diagnosis. These new diagnoses also give geneticists a chance to understand new physiopathological processes, to develop new diagnostic tests and even to discover new therapeutic targets
15

Pellier, Karine. "La dynamique structurelle et spatiale des systèmes de brevets". Thesis, Montpellier 1, 2010. http://www.theses.fr/2010MON10025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
C'est sous l'impulsion des travaux fondateurs de Schumpeter que l'innovation se positionne au coeur de l'analyse économique. Depuis ces travaux fondateurs, trop peu d'innovation studies se sont toutefois consacrées aux usages du brevet dans la longue durée. Partant de là, cette thèse a pour ambition première de fournir, outre des renseignements empiriques de bonne qualité et de nouvelles séries statistiques, une lecture renouvelée, d'inspiration cliométrique, des brevets dans leurs dimensions structurelles et spatiales. Notre premier apport est de présenter l'organisation d'une nouvelle base de données sur l'évolution de longue période des brevets dans 40 pays du XVIIe siècle à 1945 et dans plus de 150 pays de 1945 à nos jours. Nous montrons, par la suite, que des événements certes rares, mais particulièrement significatifs, ont conditionné les pulsations de l'histoire économique des brevets. Les guerres, la promulgation de lois, l'ouverture ou la fermeture d'offices, mais aussi des effets purement statistiques ont, sur le très long terme, normé, à travers le dépôt et la délivrance des séries étudiées, l'existence des systèmes de brevets. En prolongement, nous déterminons, à travers une analyse spectrale et co-spectrale, la périodicité de nos séries de brevets. Enfin, nous livrons un éclairage plus contemporain, en termes de convergence, sur les dynamiques structurelles et surtout spatiales en oeuvre dans les systèmes de brevets des pays européens
At the behest of Schumpeter's seminal works, innovation is now positioned at the heart of economic analysis. However, since these pioneering works, not enough innovation studies have been devoted to the uses of patent over time. Starting from this assertion, the present thesis aims first and foremost at providing - in addition to good quality empirical information and new statistical series - a new interpretation of patents in their structural and spatial dimensions, based on a cliometric approach. Our first contribution is to present the organisation of a new database on the evolution over a long period of time of patents in 40 countries from the XVIIth century up to 1945 and in over 150 countries from 1945 to the present time. We show in a second step that rare but nevertheless significant events conditioned the heartbeat of the economic history of patents. Wars, the promulgation of laws, the opening or closing of offices, but also purely statistical effects standardized over the long term the existence of patent systems through the application and granting of the series under study. Furthermore we determine the periodicity of our patent series using a spectral and co-spectral analysis. Finally we propose a more contemporary insight - in terms of convergence - into structural and more specifically spatial dynamics at work in the European countries patent systems
16

Rafaranalisoa, Esther. "Donnees nouvelles sur la hibonite (ca a112 o19) de madagascar". Paris 6, 1988. http://www.theses.fr/1988PA066502.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Apres un historique de la roche a hibonite de madagascar et un resume de son etude par curien et al (1956) ainsi que des autres hibonites : urss, tanzanie et meteoritiques, on presente l'etude petrograhique et chimique des plagioclasites a hibonite qui sont comparees aux sakenites de lacroix. Le chapitre 4 est consacre a la chimie, la structure et l'interpretation des substitutions possibles dans ce mineral;les deux derniers chapitres s'attachent aux etudes des inclusions fluides dans le corindon et des inclusions solides dans les differents mineraux constituant la plagioclasite a hibonite.
17

Bayar, Mohamed Amine. "Randomized Clinical Trials in Oncology with Rare Diseases or Rare Biomarker-based Subtypes". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS441.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le design standard des essais randomisés de phase III suppose le recrutement d'un grand nombre de patients pour assurer un risque α de 0.025 unilatéral et une puissance d'au moins 80%. Ceci s'avérer difficile dans les maladies rares, ou encore si le traitement cible une population spécifique définie par un sous-type moléculaire rare. Nous avons évalué par simulation la performance d'une série d'essais randomisés. Au terme de chaque essai, s'il est associé à une amélioration significative, le traitement expérimental devient le contrôle de l'essai suivant. Les designs ont été évalués pour différents taux de recrutement, différentes sévérités de la maladie, et différentes distributions hypothétiques des effets d'un futur traitement. Nous avons montré, que sous des hypothèses raisonnables, une série d'essais de plus petite taille et avec un risque α relâché est associée à un plus grand bénéfice à long terme que deux essais de design standard. Nous avons enrichi cette approche avec des designs plus flexibles incluant des analyses intermédiaires d'efficacité et/ou futilité, et des designs adaptatifs à trois bras avec sélection de traitement. Nous avons montré qu'une analyse intermédiaire avec une règle d'arrêt pour futilité était associé à un gain supplémentaire et à une meilleure maitrise du risque, contrairement aux règles d'arrêt pour efficacité qui ne permettent pas d'améliorer la performance. Les séries d'essais à trois bras sont systématiquement plus performants que les séries d'essais à deux bras. Dans la troisième de la thèse, nous avons étudié les essais randomisés évaluant un algorithme de traitement plutôt que l'efficacité d'un seul traitement. Le traitement expérimental est déterminé selon la mutation. Nous avons comparé deux méthodes basées sur le modèles de Cox à effets aléatoires pour l'estimation de l'effet traitement dans chaque mutation : Maximum Integrated Partial Likellihood (MIPL) en utilisant le package coxme et Maximum H-Likelihood (MHL) en utilisant le package frailtyHL. La performance de la méthode MIPL est légèrement meilleure. En présence d'un effet traitement hétérogène, les deux méthodes sousestime l'effet dans les mutations avec un large effet, et le surestime dans les mutations avec un modeste effet
Large sample sizes are required in randomized trials designed to meet typical one-sided α-level of 0.025 and at least 80% power. This may be unachievable in a reasonable time frame even with international collaborations. It is either because the medical condition is rare, or because the trial focuses on an uncommon subset of patients with a rare molecular subtype where the treatment tested is deemed relevant. We simulated a series of two-arm superiority trials over a long research horizon (15 years). Within the series of trials, the treatment selected after each trial becomes the control treatment of the next one. Different disease severities, accrual rates, and hypotheses of how treatments improve over time were considered. We showed that compared with two larger trials with the typical one-sided α-level of 0.025, performing a series of small trials with relaxed α-levels leads on average to larger survival benefits over a long research horizon, but also to higher risk of selecting a worse treatment at the end of the research period. We then extended this framework with more 'flexible' designs including interim analyses for futility and/or efficacy, and three-arm adaptive designs with treatment selection at interim. We showed that including an interim analysis with a futility rule is associated with an additional survival gain and a better risk control as compared to series with no interim analysis. Including an interim analysis for efficacy yields almost no additional gain. Series based on three-arm trials are associated with a systematic improvement of the survival gain and the risk control as compared to series of two-arm trials. In the third part of the thesis, we examined the issue of randomized trials evaluating a treatment algorithm instead of a single drugs' efficacy. The treatment in the experimental group depends on the mutation, unlike the control group. We evaluated two methods based on the Cox frailty model to estimate the treatment effect in each mutation: Maximum Integrated Partial Likellihood (MIPL) using package coxme and Maximum H-Likelihood (MHL) using package frailtyHL. MIPL method performs slightly better. In presence of a heterogeneous treatment effect, the two methods underestimate the treatment effect in mutations where the treatment effect is large, and overestimates the treatment effect in mutations where the treatment effect is small
18

Scélo, Ghislaine. "Facteurs de risque de trois cancers rares : le cancer de l'intestin grêle, le mélanome oculaire, et le carcinome nasopharyngé. Utilisation de données existantes recueillies en routine". Paris 11, 2006. http://www.theses.fr/2006PA11T027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Moreau, Juliette. "Propriétés thermodynamiques, données structurales et mécanismes de formation des complexes de l'acide 1,4,7,10-tétraazacyclododécane - 1,4,7,10-tétraacétique et de son dérivé tétracarboxyethyl avec Eu3+, Gd3+ et Tb3+". Reims, 2003. http://www.theses.fr/2003REIMS017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La stabilité thermodynamique des complexes formés en solution entre les ions lanthanides (Eu3+, Gd3+ et Tb3+) et deux ligants tétraazacyclododécane polycarboxylique (DOTA et tétracarboxyéthylDOTA) a été étudiée par protométrie. Ces études ont confirmé la grande stabilité de ces composés et ont montré que leur cinétique de formation était très lente. Les composés thermodynamiquement stables résultent de la lente réorganisation en plusieurs étapes d'espèces intermédiaires. Le nombre moyen de molécules d'eau coordinées au lanthanide dans les différents complexes formés et déterminé par luminescence et EXAFS. Cette dernière méthode a permis de préciser la nature des atomes donneurs entourant le métal et les longueurs des liaisons correspondantes. Les résultats obtenus permettent de proposer pour chaque ligant, un mécanisme réactionnel conduisant, en trois étapes, de l'ion lanthanide hydraté aux complexes stables
The thermodynamic stability of lanthanide ions (Eu3+, Gd3+ et Tb3+) complexes with two tetraazacyclododecane polycarboxylic ligands (DOTA and tetracarboxyethylDOTA) was studied by potentimetry. This study confirmed the important stability of this compounds and showed that the kinetic of thier formation was very slow. Several reorganisation steps involving intermediates species are necesseray to obtain the thermodynamic stable compounds. In order to characterize these complexes, luminescence and EXAFS spectroscopy studies were carried out, leading to the determination of the mean number of water molecules coordinated to the lanthanide cations. This last method, applied to complexesallowed us to precise the nature of the donor atoms that surround the metal and the corresponding binding lengths. This results have allowed us to propose a reactional mechanism for each ligand, starting from the hydrated lanthanide ion and leading in three steps to the final stable complexes
20

Bouzouita-Bayoudh, Inès. "Etude et extraction des règles associatives de classification en classification supervisée". Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20217.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de cette thèse, notre intérêt se porte sur la précision de la classification et l'optimalité du parcours de l'espace de recherche. L'objectif recherché est d'améliorer la précision de classification en étudiant les différents types de règles et de réduire l'espace de recherche des règles. Nous avons proposé une approche de classification IGARC permettant de générer un classifieur formé d'une base de règles de classification génériques permettant de mieux classer les nouveaux objets grâce à la flexibilité de petites prémisses caractérisant ces règles. De plus cette approche manipule un nombre réduit de règles en comparaison avec les autres approches de classification associative en se basant sur le principe des bases génériques des règles associatives. Une étude expérimentale inter et intra approches a été faite sur 12 bases Benchmark.Nous avons également proposé une approche Afortiori. Notre travail a été motivé par la recherche d'un algorithme efficace permettant l'extraction des règles génériques aussi bien fréquentes que rares de classification en évitant la génération d'un grand nombre de règles. L'algorithme que nous proposons est particulièrement intéressant dans le cas de bases de données bien spécifiques composées d'exemples positifs et négatifs et dont le nombre d'exemples négatifs est très réduit par rapport aux exemples positifs. La recherche des règles se fait donc sur les exemples négatifs afin de déterminer des règles qui ont un faible support et ce même par rapport à la population des exemples positifs et dont l'extraction pourrait être coûteuse
Within the framework of this thesis, our interest is focused on classification accuracy and the optimalité of the traversal of the search. we introduced a new direct associative classification method called IGARC that extracts directly a classifier formed by generic associative classification rules from a training set in order to reduce the number of associative classification rules without jeopardizing the classification accuracy. Carried out experiments outlined that IGARC is highly competitive in comparison with popular classification methods.We also introduced a new classification approach called AFORTIORI. We address the problem of generating relevant frequent and rare classification rules. Our work is motivated by the long-standing open question of devising an efficient algorithm for finding rules with low support. A particularly relevant field for rare item sets and rare associative classification rules is medical diagnosis. The proposed approach is based on the cover set classical algorithm. It allows obtaining frequent and rare rules while exploring the search space in a depth first manner. To this end, AFORTIORI adopts the covering set algorithm and uses the cover measure in order to guide the traversal of the search space and to generate the most interesting rules for the classification framework even rare ones. We describe our method and provide comparisons with common methods of associative classification on standard benchmark data set
21

Turati, Pietro. "Méthodes de simulation adaptative pour l’évaluation des risques de système complexes". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC032/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’évaluation de risques est conditionnée par les connaissances et les informations disponibles au moment où l’analyse est faite. La modélisation et la simulation sont des moyens d’explorer et de comprendre le comportement du système, d’identifier des scénarios critiques et d’éviter des surprises. Un certain nombre de simulations du modèle sont exécutées avec des conditions initiales et opérationnelles différentes pour identifier les scénarios conduisant à des conséquences critiques et pour estimer leurs probabilités d’occurrence. Pour les systèmes complexes, les modèles de simulations peuvent être : i) de haute dimension ; ii) boite noire ; iii) dynamiques ; iv) coûteux en termes de calcul, ce qu’empêche l’analyste d’exécuter toutes les simulations pour les conditions multiples qu’il faut considérer.La présente thèse introduit des cadres avancés d’évaluation des risques basée sur les simulations. Les méthodes développées au sein de ces cadres sont attentives à limiter les coûts de calcul requis par l’analyse, afin de garder une scalabilité vers des systèmes complexes. En particulier, toutes les méthodes proposées partagent l’idée prometteuse de focaliser automatiquement et de conduire d’une manière adaptive les simulations vers les conditions d’intérêt pour l’analyse, c’est-à-dire, vers des informations utiles pour l'évaluation des risques.Les avantages des méthodes proposées ont été montrés en ce qui concerne différentes applications comprenant, entre autres, un sous-réseau de transmission de gaz, un réseau électrique et l’Advanced Lead Fast Reactor European Demonstrator (ALFRED)
Risk assessment is conditioned on the knowledge and information available at the moment of the analysis. Modeling and simulation are ways to explore and understand system behavior, for identifying critical scenarios and avoiding surprises. A number of simulations of the model are run with different initial and operational conditions to identify scenarios leading to critical consequences and to estimate their probabilities of occurrence. For complex systems, the simulation models can be: i) high-dimensional; ii) black-box; iii) dynamic; and iv) computationally expensive to run, preventing the analyst from running the simulations for the multiple conditions that need to be considered.The present thesis presents advanced frameworks of simulation-based risk assessment. The methods developed within the frameworks are attentive to limit the computational cost required by the analysis, in order to keep them scalable to complex systems. In particular, all methods proposed share the powerful idea of automatically focusing and adaptively driving the simulations towards those conditions that are of interest for the analysis, i.e., for risk-oriented information.The advantages of the proposed methods have been shown with respect to different applications including, among others, a gas transmission subnetwork, a power network and the Advanced Lead Fast Reactor European Demonstrator (ALFRED)
22

Hassan, Mohsen. "Knowledge Discovery Considering Domain Literature and Ontologies : Application to Rare Diseases". Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0092.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De par leur grand nombre et leur sévérité, les maladies rares (MR) constituent un enjeu de santé majeur. Des bases de données de référence, comme Orphanet et Orphadata, répertorient les informations disponibles à propos de ces maladies. Cependant, il est difficile pour ces bases de données de proposer un contenu complet et à jour par rapport à ce qui est disponible dans la littérature. En effet, des millions de publications scientifiques sur ces maladies sont disponibles et leur nombre augmente de façon continue. Par conséquent, il serait très fastidieux d’extraire manuellement et de façon exhaustive des informations sur ces maladies. Cela motive le développement des approches semi-automatiques pour extraire l’information des textes et la représenter dans un format approprié pour son utilisation dans d’autres applications. Cette thèse s’intéresse à l’extraction de connaissances à partir de textes et propose d’utiliser les résultats de l’extraction pour enrichir une ontologie de domaine. Nous avons étudié trois directions de recherche: (1) l’extraction de connaissances à partir de textes, et en particulier l’extraction de relations maladie-phénotype (M-P); (2) l’identification d’entité nommées complexes, en particulier de phénotypes de MR; et (3) l’enrichissement d’une ontologie en considérant les connaissances extraites à partir de texte. Tout d’abord, nous avons fouillé une collection de résumés d’articles scientifiques représentés sous la forme graphes pour un extraire des connaissances sur les MR. Nous nous sommes concentrés sur la complétion de la description des MR, en extrayant les relations M-P. Cette trouve des applications dans la mise à jour des bases de données de MR telles que Orphanet. Pour cela, nous avons développé un système appelé SPARE* qui extrait les relations M-P à partir des résumés PubMed, où les phénotypes et les MR sont annotés au préalable par un système de reconnaissance des entités nommées. SPARE* suit une approche hybride qui combine une méthode basée sur des patrons syntaxique, appelée SPARE, et une méthode d’apprentissage automatique (les machines à vecteurs de support ou SVM). SPARE* bénéficié à la fois de la précision relativement bonne de SPARE et du bon rappel des SVM. Ensuite, SPARE* a été utilisé pour identifier des phénotypes candidats à partir de textes. Pour cela, nous avons sélectionné des patrons syntaxiques qui sont spécifiques aux relations M-P uniquement. Ensuite, ces patrons sont relaxés au niveau de leur contrainte sur le phénotype pour permettre l’identification de phénotypes candidats qui peuvent ne pas être références dans les bases de données ou les ontologies. Ces candidats sont vérifiés et validés par une comparaison avec les classes de phénotypes définies dans une ontologie de domaine comme HPO. Cette comparaison repose sur une modèle sémantique et un ensemble de règles de mises en correspondance définies manuellement pour cartographier un phénotype candidate extrait de texte avec une classe de l’ontologie. Nos expériences illustrent la capacité de SPARE* à des phénotypes de MR déjà répertoriés ou complètement inédits. Nous avons appliqué SPARE* à un ensemble de résumés PubMed pour extraire les phénotypes associés à des MR, puis avons mis ces phénotypes en correspondance avec ceux déjà répertoriés dans l’encyclopédie Orphanet et dans Orphadata ; ceci nous a permis d’identifier de nouveaux phénotypes associés à la maladie selon les articles, mais pas encore listés dans Orphanet ou Orphadata.Enfin, nous avons appliqué les structures de patrons pour classer les MR et enrichir une ontologie préexistante. Tout d’abord, nous avons utilisé SPARE* pour compléter les descriptions en terme de phénotypes de MR disponibles dans Orphadata. Ensuite, nous proposons de compter et grouper les MR au regard de leur description phénotypique, et ce en utilisant les structures de patron. [...]
Even if they are uncommon, Rare Diseases (RDs) are numerous and generally sever, what makes their study important from a health-care point of view. Few databases provide information about RDs, such as Orphanet and Orphadata. Despite their laudable effort, they are incomplete and usually not up-to-date in comparison with what exists in the literature. Indeed, there are millions of scientific publications about these diseases, and the number of these publications is increasing in a continuous manner. This makes the manual extraction of this information painful and time consuming and thus motivates the development of semi-automatic approaches to extract information from texts and represent it in a format suitable for further applications. This thesis aims at extracting information from texts and using the result of the extraction to enrich existing ontologies of the considered domain. We studied three research directions (1) extracting relationships from text, i.e., extracting Disease-Phenotype (D-P) relationships; (2) identifying new complex entities, i.e., identifying phenotypes of a RD and (3) enriching an existing ontology on the basis of the relationship previously extracted, i.e., enriching a RD ontology. First, we mined a collection of abstracts of scientific articles that are represented as a collection of graphs for discovering relevant pieces of biomedical knowledge. We focused on the completion of RD description, by extracting D-P relationships. This could find applications in automating the update process of RD databases such as Orphanet. Accordingly, we developed an automatic approach named SPARE*, for extracting D-P relationships from PubMed abstracts, where phenotypes and RDs are annotated by a Named Entity Recognizer. SPARE* is a hybrid approach that combines a pattern-based method, called SPARE, and a machine learning method (SVM). It benefited both from the relatively good precision of SPARE and from the good recall of the SVM. Second, SPARE* has been used for identifying phenotype candidates from texts. We selected high-quality syntactic patterns that are specific for extracting D-P relationships only. Then, these patterns are relaxed on the phenotype constraint to enable extracting phenotype candidates that are not referenced in databases or ontologies. These candidates are verified and validated by the comparison with phenotype classes in a well-known phenotypic ontology (e.g., HPO). This comparison relies on a compositional semantic model and a set of manually-defined mapping rules for mapping an extracted phenotype candidate to a phenotype term in the ontology. This shows the ability of SPARE* to identify existing and potentially new RD phenotypes. We applied SPARE* on PubMed abstracts to extract RD phenotypes that we either map to the content of Orphanet encyclopedia and Orphadata; or suggest as novel to experts for completing these two resources. Finally, we applied pattern structures for classifying RDs and enriching an existing ontology. First, we used SPARE* to compute the phenotype description of RDs available in Orphadata. We propose comparing and grouping RDs in regard to their phenotypic descriptions, and this by using pattern structures. The pattern structures enable considering both domain knowledge, consisting in a RD ontology and a phenotype ontology, and D-P relationships from various origins. The lattice generated from this pattern structures suggests a new classification of RDs, which in turn suggests new RD classes that do not exist in the original RD ontology. As their number is large, we proposed different selection methods to select a reduced set of interesting RD classes that we suggest for experts for further analysis
23

Basile, Deana. "Speechio delle rare e virtuose donne, the role of the female interlocutor in the sixteenth-century dialogues on love". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0010/NQ59103.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Modeley, Derek. "Etude des états doublement excités de H- et des processus de seuil dans les collisions H-/gaz rare par spectroscopie électronique à zéro degré". Paris 6, 2003. http://www.theses.fr/2003PA066458.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Bajja, Ali. "Nouvelles données pétrographiques et géochimiques sur les formations volcaniques précambriennes du Djebel Saghro (anti-atlas marocain), basaltes en coussins du P II et volcanites de la série de Ouarzazate (P III)". Nancy 1, 1987. http://www.theses.fr/1987NAN10130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les basaltes en pillows lavas d'Anou n'Izme appartenant au précambrien II affleurent en un petit massif bien intercalé dans les bancs greso-pelitiques avec lesquels il est concordant. La paragénèse de ces roches correspond à celle de schistes verts. Ces basaltes, à caractère tholeiitique seraient issus d'une péridotite par fusion partielle. La série volcanique d'Ouarzazate, attribuée au précambrien III, constitue une suite continue allant des andésites basiques aux rhyolites et ignimbrites, et présente une affinité magmatique calcoalcaline comparable à celle des marges continentales actives de type andin. La génèse de ces roches est complexe et sans doute en relation avec une subduction en compartiments d'une lithosphère océanique au niveau de l'accident sud atlasique
26

Hassan, Mohsen. "Knowledge Discovery Considering Domain Literature and Ontologies : Application to Rare Diseases". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0092/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De par leur grand nombre et leur sévérité, les maladies rares (MR) constituent un enjeu de santé majeur. Des bases de données de référence, comme Orphanet et Orphadata, répertorient les informations disponibles à propos de ces maladies. Cependant, il est difficile pour ces bases de données de proposer un contenu complet et à jour par rapport à ce qui est disponible dans la littérature. En effet, des millions de publications scientifiques sur ces maladies sont disponibles et leur nombre augmente de façon continue. Par conséquent, il serait très fastidieux d’extraire manuellement et de façon exhaustive des informations sur ces maladies. Cela motive le développement des approches semi-automatiques pour extraire l’information des textes et la représenter dans un format approprié pour son utilisation dans d’autres applications. Cette thèse s’intéresse à l’extraction de connaissances à partir de textes et propose d’utiliser les résultats de l’extraction pour enrichir une ontologie de domaine. Nous avons étudié trois directions de recherche: (1) l’extraction de connaissances à partir de textes, et en particulier l’extraction de relations maladie-phénotype (M-P); (2) l’identification d’entité nommées complexes, en particulier de phénotypes de MR; et (3) l’enrichissement d’une ontologie en considérant les connaissances extraites à partir de texte. Tout d’abord, nous avons fouillé une collection de résumés d’articles scientifiques représentés sous la forme graphes pour un extraire des connaissances sur les MR. Nous nous sommes concentrés sur la complétion de la description des MR, en extrayant les relations M-P. Cette trouve des applications dans la mise à jour des bases de données de MR telles que Orphanet. Pour cela, nous avons développé un système appelé SPARE* qui extrait les relations M-P à partir des résumés PubMed, où les phénotypes et les MR sont annotés au préalable par un système de reconnaissance des entités nommées. SPARE* suit une approche hybride qui combine une méthode basée sur des patrons syntaxique, appelée SPARE, et une méthode d’apprentissage automatique (les machines à vecteurs de support ou SVM). SPARE* bénéficié à la fois de la précision relativement bonne de SPARE et du bon rappel des SVM. Ensuite, SPARE* a été utilisé pour identifier des phénotypes candidats à partir de textes. Pour cela, nous avons sélectionné des patrons syntaxiques qui sont spécifiques aux relations M-P uniquement. Ensuite, ces patrons sont relaxés au niveau de leur contrainte sur le phénotype pour permettre l’identification de phénotypes candidats qui peuvent ne pas être références dans les bases de données ou les ontologies. Ces candidats sont vérifiés et validés par une comparaison avec les classes de phénotypes définies dans une ontologie de domaine comme HPO. Cette comparaison repose sur une modèle sémantique et un ensemble de règles de mises en correspondance définies manuellement pour cartographier un phénotype candidate extrait de texte avec une classe de l’ontologie. Nos expériences illustrent la capacité de SPARE* à des phénotypes de MR déjà répertoriés ou complètement inédits. Nous avons appliqué SPARE* à un ensemble de résumés PubMed pour extraire les phénotypes associés à des MR, puis avons mis ces phénotypes en correspondance avec ceux déjà répertoriés dans l’encyclopédie Orphanet et dans Orphadata ; ceci nous a permis d’identifier de nouveaux phénotypes associés à la maladie selon les articles, mais pas encore listés dans Orphanet ou Orphadata.Enfin, nous avons appliqué les structures de patrons pour classer les MR et enrichir une ontologie préexistante. Tout d’abord, nous avons utilisé SPARE* pour compléter les descriptions en terme de phénotypes de MR disponibles dans Orphadata. Ensuite, nous proposons de compter et grouper les MR au regard de leur description phénotypique, et ce en utilisant les structures de patron. [...]
Even if they are uncommon, Rare Diseases (RDs) are numerous and generally sever, what makes their study important from a health-care point of view. Few databases provide information about RDs, such as Orphanet and Orphadata. Despite their laudable effort, they are incomplete and usually not up-to-date in comparison with what exists in the literature. Indeed, there are millions of scientific publications about these diseases, and the number of these publications is increasing in a continuous manner. This makes the manual extraction of this information painful and time consuming and thus motivates the development of semi-automatic approaches to extract information from texts and represent it in a format suitable for further applications. This thesis aims at extracting information from texts and using the result of the extraction to enrich existing ontologies of the considered domain. We studied three research directions (1) extracting relationships from text, i.e., extracting Disease-Phenotype (D-P) relationships; (2) identifying new complex entities, i.e., identifying phenotypes of a RD and (3) enriching an existing ontology on the basis of the relationship previously extracted, i.e., enriching a RD ontology. First, we mined a collection of abstracts of scientific articles that are represented as a collection of graphs for discovering relevant pieces of biomedical knowledge. We focused on the completion of RD description, by extracting D-P relationships. This could find applications in automating the update process of RD databases such as Orphanet. Accordingly, we developed an automatic approach named SPARE*, for extracting D-P relationships from PubMed abstracts, where phenotypes and RDs are annotated by a Named Entity Recognizer. SPARE* is a hybrid approach that combines a pattern-based method, called SPARE, and a machine learning method (SVM). It benefited both from the relatively good precision of SPARE and from the good recall of the SVM. Second, SPARE* has been used for identifying phenotype candidates from texts. We selected high-quality syntactic patterns that are specific for extracting D-P relationships only. Then, these patterns are relaxed on the phenotype constraint to enable extracting phenotype candidates that are not referenced in databases or ontologies. These candidates are verified and validated by the comparison with phenotype classes in a well-known phenotypic ontology (e.g., HPO). This comparison relies on a compositional semantic model and a set of manually-defined mapping rules for mapping an extracted phenotype candidate to a phenotype term in the ontology. This shows the ability of SPARE* to identify existing and potentially new RD phenotypes. We applied SPARE* on PubMed abstracts to extract RD phenotypes that we either map to the content of Orphanet encyclopedia and Orphadata; or suggest as novel to experts for completing these two resources. Finally, we applied pattern structures for classifying RDs and enriching an existing ontology. First, we used SPARE* to compute the phenotype description of RDs available in Orphadata. We propose comparing and grouping RDs in regard to their phenotypic descriptions, and this by using pattern structures. The pattern structures enable considering both domain knowledge, consisting in a RD ontology and a phenotype ontology, and D-P relationships from various origins. The lattice generated from this pattern structures suggests a new classification of RDs, which in turn suggests new RD classes that do not exist in the original RD ontology. As their number is large, we proposed different selection methods to select a reduced set of interesting RD classes that we suggest for experts for further analysis
27

Chabiron, Aliouka. "Les gisements d'uranium de la caldeira de Streltsovka (Transbaikalie, Russie)". Nancy 1, 1999. http://www.theses.fr/1999NAN10069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les gisements d'u et mo de streltsovka (Russie), représentent les plus grandes ressources en u du monde associées a des volcanites (200000 tu). Les inclusions vitreuses des phénocristaux de quartz, ont permis de caractériser le magma rhyolitique avant tout phénomène d'altération. Il est per alcalin (1. 04 < (k+na)/al < 1. 10), riche en f (1. 4-2. 7%), pauvre en cl (0. 2%). Il est pauvre en h 2o (1. 9 0. 6%), riche en u (15-23 ppm), th (33-49 ppm). L'analyse des éléments traces et des terres rares a la microsonde ionique à montre qu'il est enrichi en y et nb, caractéristiques des magmas alcalins très fractionnés. En considérant 7 ppm d'u dans les rhyolites altérées et 17 ppm dans le magma initial, l'altération hydrothermale de 1 km 3 de rhyolite libère 26000 tu. Une efficacité de 25% du processus de dépôt d'u a partir des solutions hydrothermales ayant altère l'ensemble rhyolitique peut expliquer la totalité des réserves d'u des gisements. Dans le socle granitique, l'étude minéralogique et géochimique montre que les granodiorites, les granites porphyroïdes et les granites a biotite peuvent appartenir a une même suite magmatique subalcaline sodi-potassique. Le leuco granite profond montre une typologie alcaline du fait de ses teneurs élevées en sio 2 (75. 6-77. 2%), na 2o+k 2o (8. 4-8. 9%), nb (12-28 ppm), y (70-94 ppm), th (32-53 ppm), de ses faibles teneurs en ba (10-20 ppm), sr (6-16 ppm). L'altération hydrothermale très importante des granites subalcalins et alcalins de streltsovka montre que l'u, difficilement lessivable dans les minéraux accessoires, a été toutefois libéré. Un calcul de bilan de masse montre qu'1 km 3 de granite peut libérer 650 tu lors de l'altération de l'allanite. Cette estimation est minimale car le fluide oxydant ayant mobilise l'u de l'allanite a pu dissoudre les autres porteurs d'u éventuellement présents dans les granites, tels que l'uraninite.
28

Van, de Steen Cyril. "Modélisation des propriétés de transport des ions moléculaires de krypton et xénon pour l'optimisation des générateurs de plasma froids utilisant les gaz rares". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30264/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'utilisation de plasmas froids à base de gaz rares (Rg) dans des applications biomédicales ainsi que dans la propulsion spatiale est en nette évolution. Pour optimiser ces réacteurs plasmas, une compréhension fine des processus ayant lieu dans ces réacteurs est nécessaire. Ce travail de thèse a pour objectif de fournir les données manquantes dans la littérature (coefficients de transport et réaction) en passant par des données mésoscopiques (sections efficaces) obtenues à partir de données microscopiques (potentiels d'interaction) pour le xénon et krypton dans leur gaz parent. Seul des plasmas froids composés d'un seul type d'atome sont considérés. Comme le krypton et le xénon sont des gaz rares, et ont donc, à l'état de neutralité peu/pas d'interaction entre eux. Par conséquent, seules les collisions ion - atome seront considérées. Du fait des faibles énergies des ions dans le plasma froid, seul les 6 premiers états excités du couple Rg2+ seront pris en compte. Ces 6 états seront classés en deux groupes, 2P1/2 et 2P3/2. Lors de ce travail, deux potentiels d'interaction différents disponibles dans la littérature sont utilisés et comparés pour les systèmes collisionnels Kr+/Kr et Xe+/Xe dans le calcul des sections efficaces. Pour les collisions impliquant des dimères ioniques (Kr2+/Kr et Xe2+/Xe), les potentiels d'interaction sont calculés à partir du modèle DIM (Diatomics In Molecules) qui est une combinaison des potentiels atomiques d'interaction neutre - neutre et ion - neutre. Les sections efficaces, requises pour obtenir les données mésoscopiques manquantes, sont calculées à partir de trois méthodes différentes. La première méthode est la méthode quantique qui permet, par une résolution de l'équation de Schrödinger, d'obtenir de manière exacte les sections efficaces à partir des potentiels d'interaction. Cette méthode exacte, étant grande consommatrice de temps de calcul, est utilisée en tant que référence pour valider les deux autres méthodes approchées. La seconde méthode, nommée semi-classique, est basée sur la même expression que la section efficace quantique mais utilise un déphasage approché (approximation JWKB), induit par le potentiel d'interaction, entre l'onde diffusée et l'onde incidente. [...]
The use of cold plasmas based on rare gases (Rg) in biomedical applications as well as in space propulsion is clearly evolving. To optimize these plasma reactors, a fine understanding of the processes taking place in these reactors is necessary. This thesis aims to provide the missing data in the literature (transport coefficients and reaction rates) through mesoscopic data (cross-sections) obtained from microscopic data (interaction potentials) for xenon and krypton in their parent gas. Only cold plasmas composed of a single type of atom are considered. As krypton and xenon are rare gases, and so have, in the neutral state little / no interaction between them. Therefore, only ion - atom collisions will be considered. Due to the low ion energies in the cold plasma, only the first 6 excited states of the Rg2+ pair will be taken into account. These 6 states will be classified in two groups, 2P1/2 and 2P3/2. In this work, two different interaction potentials available in the literature are used and compared for the Kr+/Kr and Xe+/Xe collision systems in the calculation of cross-sections. For collisions involving ionic dimers (Kr2+/Kr and Xe2+/Xe), the interaction potentials are calculated from the DIM model (Diatomics In Molecules) which is a combination of the atomic potentials of neutral - neutral and ionic - neutral interactions. The cross-sections required to obtain the missing mesoscopic data are calculated from three different methods. The first method is the quantum method which allows, by a resolution of the Schrödinger equation, to obtain exactly the cross-sections from the interaction potentials. This exact method, which consumes a lot of computation time, is used as a reference to validate the two other approximate methods. The second method, called semi-classical, is based on the same expression as the quantum cross section but uses an approximate phase shift (JWKB approximation), induced by the interaction potential, between the scattered wave and the incident wave. [...]
29

Seppecher, Manon. "Mining call detail records to reconstruct global urban mobility patterns for large scale emissions calculation". Electronic Thesis or Diss., Lyon, 2022. http://www.theses.fr/2022LYSET002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En milieu urbain, le trafic routier contribue de manière significative aux émissions atmosphériques, enjeu majeur de la lutte contre le changement climatique. Par conséquent, la surveillance conjointe du trafic routier et des émissions qu’il génère constitue un support essentiel de la décision publique. Au-delà de simples procédures de suivi, les pouvoirs publics ont besoin de méthodes d’évaluation des politiques de transport selon des critères environnementaux.Le couplage de modèles de trafic avec des modèles d’émissions constitue une réponse adaptée à ce besoin. Cependant, l’intégration de tels models à des outils d'aide à la décision nécessite une ca-ractérisation fine et dynamique de la mobilité urbaine. Les données de téléphonie mobile, et en particulier les statistiques d'appel (données CDR), sont une alternative aux données traditionnelles pour estimer cette mobilité. Elles sont riches, massives, et disponibles partout dans le monde. Néanmoins, leur utilisation pour la caractérisation systématique du trafic routier est restée limitée. Cela s'explique par une faible résolution spatiale et des taux d'échantillonnage temporels sensible aux comportements de communication.Cette thèse de doctorat interroge l'estimation des variables de trafic nécessaires au calcul d'émis-sions atmosphériques (distances totales parcourues et vitesses moyennes de trafic) à partir de telles données, et malgré leurs biais. Une première contribution importante est d’articuler des méthodes de classification des individus avec deux approches distinctes de reconstruction de la mobilité. Un seconde contribution est le développement d'une méthode d'estimation des vitesses de trafic basée sur la fusion de larges quantité de données de déplacements. Enfin, un processus méthodologique complet de modélisation et de traitement des données est avancé. Il articule de façon cohérente les méthodes proposées dans cette thèse
Road traffic contributes significantly to atmospheric emissions in urban areas, a major issue in the fight against climate change. Therefore, joint monitoring of road traffic and related emissions is essential for urban public decision-making. And beyond this kind of procedure, public authorities need methods for evaluating transport policies according to environmental criteria.Coupling traffic models with traffic-related emission models is a suitable response to this need. However, integrating this solution into decision support tools requires a refined and dynamic char-acterization of urban mobility. Cell phone data, particularly Call Detail Records, are an interesting alternative to traditional data to estimate this mobility. They are rich, massive, and available worldwide. However, their use in literature for systematic traffic characterization has remained limited. It is due to low spatial resolution and temporal sampling rates sensitive to communication behaviors.This Ph.D. thesis investigates the estimation of traffic variables necessary for calculating air emis-sions (total distances traveled and average traffic speeds) from such data, despite their biases. The first significant contribution is to articulate methods of classification of individuals with two distinct approaches of mobility reconstruction. A second contribution is developing a method for estimating traffic speeds based on the fusion of large amounts of travel data. Finally, we present a complete methodological process of modeling and data processing. It relates the methods proposed in this thesis coherently
30

Desmet, Alain. "Ophiolites et séries basaltiques crétacées des régions caraïbes et nordandines : bassins marginaux, dorsales ou plateaux océaniques ?" Nancy 1, 1994. http://www.theses.fr/1994NAN10313.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les régions caraïbes et nordandines comportent, au crétacé, des séries magmatiques basiques, volcaniques ou ophiolitiques. L'étude petrologique analytique (majeurs, traces, terres rares, microsonde) de quelques séries du Costa Rica, de Colombie et d'Équateur, a permis leur identification magmatique et dynamique. La comparaison des laves à certaines séries volcaniques océaniques actuelles a conduit à une réinterprétation magmatique et géodynamique globale. Au Costa Rica, la péninsule de Santa Elena est formée d'une large nappe ophiolitique tholeiitique avec péridotites, cumulats gabbroiques et dolerites diverses (n-morb). Les iles Murcielago sont couvertes de ferrobasaltes t-morb. Santa Elena représente un témoin de croute océanique crétacée mis en place vers 70 ma et Murcielago un lambeau de plateau océanique soudé à l'Amérique centrale. La Colombie offre, au crétacé, et du nord au sud de la cordillère occidentale, un large éventail de formations océaniques: la série du Boqueron de Toyo, à volcanisme basaltique et intrusions diorito-tonalitiques (92 ma) témoigne du fonctionnement d'un arc insulaire immature. La série d'Altamira, a cumulats gabbroiques et basaltes primitifs illustre l'ouverture vers 80 ma d'un bassin en arrière de l'arc précédent. Le massif de Bolivar, correspond, avec ses cumulats tholeiitiques (i ou iia), a la croute océanique. La coupe de Buenaventura a Buga, avec ses nappes empilées riches en sédiments océaniques et en basaltes de type t-morb évoque des terrains constitués en plateau océanique et accrétés à la marge sud-américaine. En Équateur, le crétacé supérieur de la cordillère occidentale offre une situation analogue: des lambeaux de croute océanique sont dispersés le long d'une grande suture ophiolitique oblitérée par l'arc volcanique de Macuchi. La série de la Quebrada San Juan est l'équivalent de celle de Bolivar. Les basaltes (t-morb) du Grupo Pinon de la cote correspondent aussi à du matériel de plateau océanique accrété au bâti sud-américain
31

El, Korbi Amell. "Identification de caractéristiques communes et rares dans les ARN structurés dans la base de données Rfam". Thèse, 2015. http://hdl.handle.net/1866/13798.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.
Noncoding RNAs (ncRNAs) are RNA transcripts that are not translated into proteins yet they play important functional roles in the cell including gene regulation, transcription and translation. Among the many categories of ncRNAs that were discovered, we find the well-known ribosomal RNA (rRNA), transfer RNA (tRNA), snoRNA and microRNAs (miRNA). The functions of ncRNAs are tightly linked to their structural features. Thus, understanding and predicting RNA structure as well as developing methods to search for new ncRNAs help to gain insight into these molecules. Technological advances have made available abundant sequence information accessible in databases such as Rfam, which provides alignments and structural information of many ncRNA families. In this research project, we retrieved the information from the Rfam database about the sequences of all secondary structures such as hairpin loops, internal loops, bulges, etc. in all RNA families. A local database, RNAstem, was created to facilitate the use and manipulation of information about secondary structure motifs. We analyzed hairpin loops, bulges and internal loops using the compiled data about the frequencies of occurrence of each loop or bulge and calculated a frequency score. The frequency score is aimed to be an indicator for the abundance of a specific secondary structure motif. While minimizing the bias caused by the high redundancy of some RNA classes as ribosomal RNAs, the frequency score allowed us to identify the rare motifs in each category as well as the common ones. Our findings about the abundant motifs confirm what is already known from previous studies (ex. abundant GNRA or UNCG tetraloops). We found very large gaps between the most abundant and rare RNA structural features. Moreover, we discovered that "A" and "U" dominate single stranded RNA regions, whether they are bulges or loops. We further explored the possibility of using this data to improve current prediction tools for ncRNAs by applying a filter to new candidates. We developed a score system, RNAscore, that evaluates RNAs depending on their motif contents and we tested the program with many different controls.
32

Bendakir, Narimel. "RARE : un système de recommandation de cours basé sur les régles d'association". Thèse, 2006. http://hdl.handle.net/1866/16732.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Catto, Lionel. "La réduction des impacts environnementaux des technologies de l’information par le droit". Thèse, 2016. http://hdl.handle.net/1866/18628.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Loin d’être des produits immatériels, les technologies de l’information et de la communication (TIC) ont un réel impact environnemental tout au long de leur cycle de vie. L’Éco-TIC est le point de rencontre entre le développement durable et les TIC. Le droit de l'Éco-TIC est l’ensemble des règles de droit régissant les rapports entre les technologies de l’information et le domaine environnemental. Ce mémoire a pour objectif d’examiner les normes juridiques, notamment en Europe et en Amérique du Nord, qui permettent de limiter l’impact environnemental des technologies de l’information lors des trois phases du cycle de vie des TIC. Tout d’abord, nous nous penchons sur l’étape de la conception des TIC. À cette étape, les réglementations en matière d’écoconception, l’utilisation des terres rares et l’interdiction de l’obsolescence programmée sont particulièrement pertinentes. Ensuite, nous examinons comment les entreprises tentent de réduire la consommation énergétique des TIC lors de la phase d’utilisation, notamment par le biais de la responsabilité sociétale de l’entreprise (RSE). Nous verrons également que les centres de données se multiplient afin de répondre à une demande toujours plus forte. Enfin, nous traitons de la fin de vie des TIC, phase pour laquelle l’Union européenne a créé des directives en matière de réutilisation, réduction et recyclage qui influent sur le plan international.
Information and communication technologies (ICT) are far from being intangible goods and do have an environmental impact during their entire life cycle. Green IT stands at the crossroads of sustainable development and ICT. Green IT law consists of a set of rules governing the relations between information technologies and environment. The purpose of this thesis is to investigate the European and North American legal standards regulating the environment impacts of ICT throughout the three phases of their life cycle. In the first part, the design phase of ICT is examined. At this stage, existing regulations on eco-design, the use of rare earth elements, and the interdiction of planned obsolescence are of particular relevance. The thesis then studies how companies are trying to reduce the use-phase energy consumption of ICT, notably through the Corporate Social Responsability. The issue of the multiplication of data centres, due to an ever-growing demand, is also discussed. In the end, the thesis considers the end-of-life phase of ICT and the directives created by the European Union that affect recycling and waste reduction management at an international level.

Vai alla bibliografia