Дисертації з теми "Données biomédicales"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Données biomédicales.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-33 дисертацій для дослідження на тему "Données biomédicales".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

BARRA, Vincent. "Modélisation, classification et fusion de données biomédicales." Habilitation à diriger des recherches, Université Blaise Pascal - Clermont-Ferrand II, 2004. http://tel.archives-ouvertes.fr/tel-00005998.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire synthétise les travaux que j'ai menés de 2000 à 2004, au sein de deux laboratoires des facultés de Clermont-Ferrand : l'Equipe de Recherche en Imagerie Médicale (ERIM, Université d'Auvergne), où j'ai effectué ma thèse, et le Laboratoire d'Informatique, de Modélisation et d'Optimisation des Systèmes (LIMOS, Université Blaise Pascal) dans lequel j'ai été accueilli suite à mon recrutement en tant que maître de conférences dans cette même université. Ce changement de laboratoire s'est accompagné d'une modification de mon thème principal de recherche, passant du traitement d'images médicales multimodales par des techniques de fusion d'informations, au domaine de la bioinformatique en général, et de l'étude des puces à ADN en particulier. Plutôt que d'essayer de regrouper artificiellement ces deux thèmes au sein d'un même plan, j'ai préféré diviser ce mémoire en deux parties distinctes et cohérentes, chacune traitant d'un des deux aspects de recherche que je mène actuellement de front. Ainsi, la première partie résume les travaux que j'ai effectués depuis 2001 dans le domaine de la fusion de données appliquée au traitement d'images 3D du cerveau, soit directement soit dans le cadre du co-encadrement de deux doctorants. Le dernier chapitre de cette partie met en particulier en perspective les nouveaux développements espérés sur la stimulation magnétique transcrânienne, à travers l'encadrement d'une thèse CIFRE que j'assure par délégation à temps plein. La seconde partie se concentre sur les recherches que je mène depuis septembre 2001 au LIMOS, concernant l'étude des images de puces à ADN. J'expose dans cette partie au travers de trois chapitres mon projet de recherche dans ce domaine, et je présente pour chaque choix retenu ma contribution sous la forme d'un simulateur d'images de biopuces transcriptome et de nouvelles méthodes d'analyse de ces images. Si les deux parties sont clairement décorrélées, j'ai néanmoins essayé de dégager une problématique générale commune à mes travaux, que j'ai nommée sans forfanterie modélisation, classification et fusion de données biomédicales, et qui constitue le titre de ce manuscrit.
2

Choquet, Rémy. "Partage de données biomédicales : modèles, sémantique et qualité." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00824931.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
3

Personeni, Gabin. "Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0235/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données
The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
4

Personeni, Gabin. "Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0235.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données
The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
5

Seitz, Ludwig. "Conception et mise en oeuvre de mécanismes sécurisés d'échange de données confidentielles : application à la gestion de données biomédicales dans le cadre d'architectures de grilles de calcul / données." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0055/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les grilles de calcul permettent de partager des ressources multiples et hétérogènes, comme la puissance de calcul, l'espace de stockage et les données, a travers d'une architecture qui permet de faire interopérer ces ressources d'une manière transparente pour l'utilisateur. Des applications récentes des grilles sont les réseaux de soin. Contrairement aux premières applications des grilles (par exemple la physique de particules ou l'observation terrestre), la sécurité est très importante pour les applications médicales. Les données des patients doivent être protégées contre des accès illicites, tout en étant en même temps accessibles par des personnes autorisées. Des mécanismes de protection de données classiques ne sont que d'une utilité limitée pour cette tâche, à cause des nouveaux défis posés par la Grille. Pour cette raison un système de contrôle d'accès doit être décentralisé et le possesseur d'une donnée doit avoir le contrôle sur qui a accès à ses données. Puisque il peut être nécessaire d'accéder rapidement à des données, le système de contrôle d'accès doit permettre de la délégation immédiate de droits. Finalement le fait que les données en question peuvent être très confidentielles fait que l'on peut pas se fier uniquement à un mécanisme de contrôle d'accès, puisque un attaquant ayant accès au matériel physique de stockage peut contourner ce contrôle. Dans la thèse ici présente, nous proposons une architecture pour la protection de données confidentielles sur une grille. Cette architecture comprend un système de contrôle d'accès et un système de stockage chiffré
Grid computing allows users to share multiple heterogeneous resources, such as computing power, storage capacity and data, and provides an architecture for transparent interoperation of these resources from the user's point of view. An upcoming application for Grids is health-care. More than for the first applications of Grids (e. G. Particle physics, terrestrial observation), security is a major issue for medical applications. Conventional data protection mechanisms are only of limited use, due to the novel security challenges posed by Grids. To respond to these challenges we propose an access control system that is decentralized and where the owners of some data are in control of the permissions concerning their data. Furthermore data may be needed at very short notice, the access control system must support a delegation of rights that is effective immediately. Grid users also need delegation mechanisms to give rights to processes, that act on their behalf. As these processes may spawn sub processes, multi-step delegation must be possible. In addition to these usability requirements, the transparent storage and replication mechanisms of Grids make it necessary to implement additional protection mechanisms for confidential data. Access control can be circumvented by attackers having access to the physical storage medium. We therefore need encrypted storage mechanisms to enhance the protection of data stored on a Grid. In this thesis we propose a comprehensive architecture for the protection of confidential data on Grids. This architecture includes an access control system and an encrypted storage scheme
6

Rivault, Yann. "Analyse de trajectoires de soins à partir de bases de données médico-administratives : apport d'un enrichissement par des connaissances biomédicales issues du Web des données." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour la recherche en santé publique, réutiliser les bases médicoadministratives est pertinent et ouvre de nouvelles perspectives. En pharmacoépidémiologie, ces données permettent d’étudier à grande échelle l’état de santé, les maladies ainsi que la consommation et le recours aux soins d’une population. Le traitement de ces données est cependant limité par des complexités inhérentes à la nature comptable des données. Cette thèse porte sur l’utilisation conjointe de bases de données médicoadministratives et de connaissances biomédicales pour l’étude des trajectoires de soin. Cela recouvre à la fois (1) l’exploration et l’identification des trajectoires de soins pertinentes dans des flux volumineux au moyen de requêtes et (2) l’analyse des trajectoires retenues. Les technologies du Web Sémantique et les ontologies du Web des données ont permis d’explorer efficacement les données médicoadministratives, en identifiant dans des trajectoires de soins des interactions, ou encore des contre-indications. Nous avons également développé le package R queryMed afin de rendre plus accessible les ontologies médicales aux chercheurs en santé publique. Après avoir permis d’identifier les trajectoires intéressantes, les connaissances relatives aux nomenclatures médicales de ces bases de données ont permis d’enrichir des méthodes d’analyse de trajectoires de soins pour mieux prendre en compte leurs complexités. Cela s’est notamment traduit par l’intégration de similarités sémantiques entre concepts médicaux. Les technologies du Web Sémantique ont également été utilisées pour explorer les résultats obtenus
Reusing healthcare administrative databases for public health research is relevant and opens new perspectives. In pharmacoepidemiology, it allows to study large scale diseases as well as care consumption for a population. Nevertheless, reusing these information systems that were initially designed for accounting purposes and whose interoperability is limited raises new challenges in terms of representation, integration, exploration and analysis. This thesis deals with the joint use of healthcare administrative databases and biomedical knowledge for the study of patient care trajectories. This includes both (1) exploration and identification through queries of relevant care pathways in voluminous flows, and (2) analysis of retained trajectories. Semantic Web technologies and biomedical ontologies from the Linked Data allowed to identify care trajectories containing a drug interaction or a potential contraindication between a prescribed drug and the patient’s state of health. In addition, we have developed the R queryMed package to enable public health researchers to carry out such studies by overcoming the difficulties of using Semantic Web technologies and ontologies. After identifying potentially interesting trajectories, knowledge from biomedical nomenclatures and ontologies has also enriched existing methods of analysing care trajectories to better take into account the complexity of data. This resulted notably in the integration of semantic similarities between medical concepts. Semantic Web technologies have also been used to explore obtained results
7

Nikiema, Jean. "Intégration de connaissances biomédicales hétérogènes grâce à un modèle basé sur les ontologies de support." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0179/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le domaine de la santé, il existe un nombre très important de sources de connaissances, qui vont de simples terminologies, classifications et vocabulaires contrôlés à des représentations très formelles, que sont les ontologies. Cette hétérogénéité des sources de connaissances pose le problème de l’utilisation secondaire des données, et en particulier de l’exploitation de données hétérogènes dans le cadre de la médecine personnalisée ou translationnelle. En effet, les données à utiliser peuvent être codées par des sources de connaissances décrivant la même notion clinique de manière différente ou décrivant des notions distinctes mais complémentaires.Pour répondre au besoin d’utilisation conjointe des sources de connaissances encodant les données de santé, nous avons étudié trois processus permettant de répondre aux conflits sémantiques (difficultés résultant de leur mise en relation) : (1) l’alignement qui consiste à créer des relations de mappings (équivalence et/ou subsumption) entre les entités des sources de connaissances, (2) l’intégration qui consiste à créer des mappings et à organiser les autres entités dans une même structure commune cohérente et, enfin, (3) l’enrichissement sémantique de l’intégration qui consiste à créer des mappings grâce à des relations transversales en plus de celles d’équivalence et de subsumption.Dans un premier travail, nous avons aligné la terminologie d’interface du laboratoire d’analyses du CHU de Bordeaux à la LOINC. Deux étapes principales ont été mises en place : (i) le prétraitement des libellés de la terminologie locale qui comportaient des troncatures et des abréviations, ce qui a permis de réduire les risques de survenue de conflits de nomenclature, (ii) le filtrage basé sur la structure de la LOINC afin de résoudre les différents conflits de confusion.Deuxièmement, nous avons intégré RxNorm à la sous-partie de la SNOMED CT décrivant les connaissances sur les médicaments afin d’alimenter la SNOMED CT avec les entités de RxNorm. Ainsi, les médicaments dans RxNorm ont été décrits en OWL grâce à leurs éléments définitionnels (substance, unité de mesure, dose, etc.). Nous avons ensuite fusionné cette représentation de RxNorm à la structure de la SNOMED CT, résultant en une nouvelle source de connaissances. Nous avons ensuite comparé les équivalences inférées (entre les entités de RxNorm et celles de la SNOMED CT) grâce à cette nouvelle structure avec les équivalences créées de manière morphosyntaxique. Notre méthode a résolu des conflits de nomenclature mais s’est confrontée à certains conflits de confusion et d’échelle, ce qui a mis en évidence le besoin d’améliorer RxNorm et SNOMED CT.Finalement, nous avons réalisé une intégration sémantiquement enrichie de la CIM10 et de la CIMO3 en utilisant la SNOMED CT comme support. La CIM10 décrivant des diagnostics et la CIMO3 décrivant cette notion suivant deux axes différents (celui des lésions histologiques et celui des localisations anatomiques), nous avons utilisé la structure de la SNOMED CT pour retrouver des relations transversales entre les concepts de la CIM10 et de la CIMO3 (résolution de conflits ouverts). Au cours du processus, la structure de la SNOMED CT a également été utilisée pour supprimer les mappings erronés (conflits de nomenclature et de confusion) et désambiguïser les cas de mappings multiples (conflits d’échelle)
In the biomedical domain, there are almost as many knowledge resources in health as there are application fields. These knowledge resources, described according to different representation models and for different contexts of use, raise the problem of complexity of their interoperability, especially for actual public health problematics such as personalized medicine, translational medicine and the secondary use of medical data. Indeed, these knowledge resources may represent the same notion in different ways or represent different but complementary notions.For being able to use knowledge resources jointly, we studied three processes that can overcome semantic conflicts (difficulties encountered when relating distinct knowledge resources): the alignment, the integration and the semantic enrichment of the integration. The alignment consists in creating a set of equivalence or subsumption mappings between entities from knowledge resources. The integration aims not only to find mappings but also to organize all knowledge resources’ entities into a unique and coherent structure. Finally, the semantic enrichment of integration consists in finding all the required mapping relations between entities of distinct knowledge resources (equivalence, subsumption, transversal and, failing that, disjunction relations).In this frame, we firstly realized the alignment of laboratory tests terminologies: LOINC and the local terminology of Bordeaux hospital. We pre-processed the noisy labels of the local terminology to reduce the risk of naming conflicts. Then, we suppressed erroneous mappings (confounding conflicts) using the structure of LOINC.Secondly, we integrated RxNorm to SNOMED CT. We constructed formal definitions for each entity in RxNorm by using their definitional features (active ingredient, strength, dose form, etc.) according to the design patterns proposed by SNOMED CT. We then integrated the constructed definitions into SNOMED CT. The obtained structure was classified and the inferred equivalences generated between RxNorm and SNOMED CT were compared to morphosyntactic mappings. Our process resolved some cases of naming conflicts but was confronted to confounding and scaling conflicts, which highlights the need for improving RxNorm and SNOMED CT.Finally, we performed a semantically enriched integration of ICD-10 and ICD-O3 using SNOMED CT as support. As ICD-10 describes diagnoses and ICD-O3 describes this notion according to two different axes (i.e., histological lesions and anatomical structures), we used the SNOMED CT structure to identify transversal relations between their entities (resolution of open conflicts). During the process, the structure of the SNOMED CT was also used to suppress erroneous mappings (naming and confusion conflicts) and disambiguate multiple mappings (scale conflicts)
8

Courilleau, Nicolas. "Visualisation et traitements interactifs de grilles régulières 3D haute-résolution virtualisées sur GPU. Application aux données biomédicales pour la microscopie virtuelle en environnement HPC." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La visualisation de données est un aspect important de la recherche scientifique dans de nombreux domaines.Elle permet d'aider à comprendre les phénomènes observés voire simulés et d'en extraire des informations à des fins notamment de validations expérimentales ou tout simplement pour de la revue de projet.Nous nous intéressons dans le cadre de cette étude doctorale à la visualisation de données volumiques en imagerie médicale et biomédicale, obtenues grâce à des appareils d'acquisition générant des champs scalaires ou vectoriels représentés sous forme de grilles régulières 3D.La taille croissante des données, due à la précision grandissante des appareils d'acquisition, impose d'adapter les algorithmes de visualisation afin de pouvoir gérer de telles volumétries.De plus, les GPUs utilisés en visualisation de données volumiques, se trouvant être particulièrement adaptés à ces problématiques, disposent d'une quantité de mémoire très limitée comparée aux données à visualiser.La question se pose alors de savoir comment dissocier les unités de calculs, permettant la visualisation, de celles de stockage.Les algorithmes se basant sur le principe dit "out-of-core" sont les solutions permettant de gérer de larges ensembles de données volumiques.Dans cette thèse, nous proposons un pipeline complet permettant de visualiser et de traiter, en temps réel sur GPU, des volumes de données dépassant très largement les capacités mémoires des CPU et GPU.L'intérêt de notre pipeline provient de son approche de gestion de données "out-of-core" permettant de virtualiser la mémoire qui se trouve être particulièrement adaptée aux données volumiques.De plus, cette approche repose sur une structure d'adressage virtuel entièrement gérée et maintenue sur GPU.Nous validons notre modèle grâce à plusieurs applications de visualisation et de traitement en temps réel.Tout d'abord, nous proposons un microscope virtuel interactif permettant la visualisation 3D auto-stéréoscopique de piles d'images haute résolution.Puis nous validons l'adaptabilité de notre structure à tous types de données grâce à un microscope virtuel multimodale.Enfin, nous démontrons les capacités multi-rôles de notre structure grâce à une application de visualisation et de traitement concourant en temps réel
Data visualisation is an essential aspect of scientific research in many fields.It helps to understand observed or even simulated phenomena and to extract information from them for purposes such as experimental validations or solely for project review.The focus given in this thesis is on the visualisation of volume data in medical and biomedical imaging.The acquisition devices used to acquire the data generate scalar or vector fields represented in the form of regular 3D grids.The increasing accuracy of the acquisition devices implies an increasing size of the volume data.Therefore, it requires to adapt the visualisation algorithms in order to be able to manage such volumes.Moreover, visualisation mostly relies on the use of GPUs because they suit well to such problematics.However, they possess a very limited amount of memory compared to the generated volume data.The question then arises as to how to dissociate the calculation units, allowing visualisation, from those of storage.Algorithms based on the so-called "out-of-core" principle are the solutions for managing large volume data sets.In this thesis, we propose a complete GPU-based pipeline allowing real-time visualisation and processing of volume data that are significantly larger than the CPU and GPU memory capacities.The pipeline interest comes from its GPU-based approach of an out-of-core addressing structure, allowing the data virtualisation, which is adequate for volume data management.We validate our approach using different real-time applications of visualisation and processing.First, we propose an interactive virtual microscope allowing 3D auto-stereoscopic visualisation of stacks of high-resolution images.Then, we verify the adaptability of our structure to all data types with a multimodal virtual microscope.Finally, we demonstrate the multi-role capabilities of our structure through a concurrent real-time visualisation and processing application
9

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle." Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ005S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité
Dynamic-Contrast-Enhanced Magnetic Resonance Imaging has a great potential for renal function assessment but has to be evaluated on a large scale before its clinical application. Registration of image sequences and segmentation of internal renal structures is mandatory in order to exploit acquisitions. We propose a reliable and user-friendly tool to partially automate these two operations. Statistical registration methods based on mutual information are tested on real data. Segmentation of cortex, medulla and cavities is performed using time-intensity curves of renal voxels in a two step process. Classifiers are first built with pixels of the slice that contains the largest proportion of renal tissue : two vector quantization algorithms, namely the K-means and the Growing Neural Gas with targeting, are used here. These classifiers are first tested on synthetic data. For real data, as no ground truth is available for result evaluation, a manual anatomical segmentation is considered as a reference. Some discrepancy criteria like overlap, extra pixels and similarity index are computed between this segmentation and functional one. The same criteria are also evaluated between the referencee and another manual segmentation. Results are comparable for the two types of comparisons. Voxels of other slices are then sorted with the optimal classifier. Generalization theory allows to bound classification error for this extension. The main advantages of functional methods are the following : considerable time-saving, easy manual intervention, good robustness and reproductibility
10

Coupier, Jérôme. "Contribution à la modélisation des doigts longs et développement d’un protocole clinique d’évaluation de la mobilité de la main." Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/229442.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse investigue la cinématique des doigts longs par deux approches différentes et complémentaires ainsi que la faisabilité de la fusion entre celles-ci. La première approche comporte le développement complet d’un protocole d’évaluation fonctionnelle tridimensionnelle des doigts. Des mouvements continus sont étudiés de manière in vivo et la cinématique des cinq doigts est visualisée simultanément. La seconde approche consiste en l’application d’une méthodologie in vitro de modélisation des doigts afin de créer un modèle anatomiquement fidèle permettant d’apprécier la cinématique tridimensionnelle ainsi que différents paramètres biomécaniques des muscles mobilisant les doigts longs. Les deux approches sont finalement comparées et la faisabilité de leur couplage étudiée en vue d’une fusion des données issues de ces deux méthodologies. Les méthodes développées dans ce travail sont également considérées dans le cadre d’une utilisation clinique. La première partie de ce travail présente la méthodologie complète d’un protocole novateur d’évaluation de la cinématique des doigts in vivo. Plusieurs mouvements analytiques et fonctionnels des doigts ont été analysés sur un échantillon de vingt sujets sains. Les mouvements analytiques ont tout d’abord permis d’étudier le comportement physiologique des doigts mais également de constater des spécificités fonctionnelles de chacun. Les mouvements fonctionnels ont ensuite permis d’analyser la biomécanique des doigts lors de mouvements plus complexes. Les synergies intra- et inter-doigts ont été étudiées et les spécificités des muscles mobilisant les doigts sont discutées. Enfin, une base de données de sujets sains a été créée pour permettre de futures études incluant des sujets souffrant de pathologies de l’appareil neuro-musculo-squelettique de la main. Les limites mises en évidence ainsi que le rôle des muscles décrit dans cette première partie justifient l’emploi de la modélisation dans la suite de ce travail.La deuxième partie de ce travail apporte une contribution à la modélisation musculo-squelettique des doigts longs. Une nouvelle méthodologie de création de référentiels pour les segments des doigts longs est présentée et confrontée à une méthodologie faisant standard (recommandations de l’International Society of Biomechanics). Par ailleurs, le modèle développé sur base de données tomodensitométriques a permis d’étudier plusieurs paramètres de la cinématique par positions discrètes des doigts longs. Le modèle est apparu satisfaisant concernant la cinématique articulaire. Une méthodologie originale de modélisation des muscles extrinsèques des doigts est également présentée. Les résultats de l’étude des excursions tendineuses et des bras de levier musculaires ont permis de conclure que le modèle est pertinent pour l’étude de la cinématique articulaire des doigts longs et des paramètres musculaires présentés dans certaines limites. Le modèle musculo-squelettique décrit constitue une base pour de multiples améliorations futures dont certaines sont abordées dans ce travail. Afin de rendre le modèle le plus proche de la réalité, les données des deux premières parties du travail sont envisagées dans le cadre d’une fusion de données. La dernière partie de ce travail s’intéresse à la faisabilité de la fusion entre la méthodologie d’évaluation fonctionnelle de la cinématique des doigts in vivo et la modélisation musculo-squelettique des doigts longs. De nombreux paramètres cinématiques ont été comparés et les limitations identifiées ont été investiguées, dont notamment les artéfacts liés aux déplacements des tissus mous sur les segments osseux. Par ailleurs, les perspectives d’utilisation de ces deux méthodologies dans un environnement clinique sont également abordées. Dans sa globalité, ce travail apporte une contribution à la connaissance de la cinématique des doigts longs par deux approches différentes ainsi que par l’étude de la faisabilité de la fusion entre celles-ci. Les méthodologies présentées offrent de multiples possibilités. Les limitations inhérentes aux méthodologies employées dans ce travail sont étudiées et discutées. De multiples pistes de réflexion et d’études futures sont également présentées sur base des travaux décrits. La fusion des données abordée pourra dans les travaux futurs permettre de développer des outils pour l’analyse fonctionnelle des doigts dans des applications en recherche fondamentale ou en routine clinique.
Doctorat en Sciences biomédicales et pharmaceutiques (Médecine)
info:eu-repo/semantics/nonPublished
11

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle." Phd thesis, Université de Metz, 2010. http://tel.archives-ouvertes.fr/tel-00557235.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
12

Chicheportiche, Alexandre. "Données de base des ions atomiques et moléculaires de l'hélium et de l'argon pour l'optimisation des jets de plasmas froids utilisés dans le domaine biomédical." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2437/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation des jets de plasmas froids à pression atmosphérique (PA) pour des applications biomédicales est un sujet de recherche relativement nouveau, et en plein essor. De nombreuses espèces actives (photons, radicaux, particules chargées, champ électrique etc. ) sont produites par ces dispositifs et sont à l'origine des effets biologiques observés. Un des défis principaux est alors de pouvoir en contrôler la production. Pour cela, des modèles physico-chimiques ont été développés mais requièrent, en données d'entrée, les coefficients de transport, souvent indisponibles dans la littérature, des ions affectant la cinétique du jet de plasma. Ce travail de thèse se concentre sur les jets de plasma à base d'hélium ou d'argon. Ainsi, les coefficients de transport des ions He+ et He2+ ainsi que Ar+ et Ar2+ ont été calculés dans leur gaz parent. La nouveauté concerne les ions moléculaires (He2+ et Ar2+), déterminant dans la dynamique des jets car très majoritairement présents à la PA. Les coefficients de transport sont intimement liés aux sections efficaces de collision et donc aux courbes de potentiel d'interaction ion-neutre. Pour le système d'interaction He+/He, une méthode quantique 1D sans approximation a été utilisée pour le calcul des sections efficaces de collision puis, une simulation Monte Carlo a permis d'obtenir les coefficients de transport dans les barres d'erreur expérimentale. Par contre, pour les ions moléculaires He2+, deux méthodes de calcul ont été utilisées : une méthode quantique 1D et une méthode, qualifiée d'hybride, associant formulations classique et quantique. Un compromis entre les deux méthodes a finalement permis d'obtenir des mobilités réduites avec un écart relatif moyen de 5% par rapport aux mesures, puis de les étendre aux champs élevés. Les coefficients de diffusion et les constantes de réaction, non-disponibles dans la littérature, ont également été calculés. Pour les jets de plasmas à base d'argon, les coefficients de transport des ions atomiques à l'état fondamental 2P3/2 et métastable 2P1/2 ont été calculés, à l'aide des sections efficaces quantiques, jusqu'à 1500 Td (1 Td = 10-17 V. Cm²) avec un écart relatif moyen inférieur à 0. 2% par rapport aux mesures. Enfin, pour les ions Ar2+, la méthode hybride a permis d'obtenir les sections efficaces de collision menant à des mobilités réduites avec un écart relatif moyen de 2% par rapport aux mesures et de calculer les coefficients de diffusion et constantes de réaction
The use of cold plasma jets at atmospheric pressure (AP) for biomedical applications is a hot research topic. Such devices produce many active species (photons, radicals, charged particles, electric field, etc. ) very useful for biomedical applications. The challenge for the plasma physics community is to tune such plasma devices to abundantly or selectively produce actives species beforehand identified for their biological effects. To reach this goal, physicochemical models have been developed but require, in input data, the transport coefficients (not always available in the literature) of ions affecting the kinetics of the plasma jet. In this thesis work we are interested in helium or argon plasma jets. Thus, transport coefficients of He+ and He2+ ions as Ar+ and Ar2+ ions have been calculated in their parent gas. The originality of the work concerns the molecular ions (He2+ and Ar2+) which play the main role in the plasma jet dynamics since they are overwhelmingly present at the AP. The transport coefficients are closely related to the collision cross sections and then to the ion-neutral interaction potential curves. For the He+/He interaction system, a 1D quantum method without approximation has been used for the collision cross section calculation and an optimized Monte Carlo code allowed us to obtained the transport coefficients in the experimental error bars. On the other side, for the molecular ions He2+, two calculation methods have been considered: a 1D quantum method and a hybrid method mixing classical and quantum formulations. A compromise between these two methods finally allowed us to obtain reduced mobilities with a mean relative deviation from experiments of 5% and to expand the latter to higher electric fields. Diffusion coefficients and reaction rates, not available in the literature, have been also calculated. For the argon plasma jet, the transport coefficients for atomic ions in the ground 2P3/2 state and metastable 2P1/2 state have been obtained, using quantum collision cross sections, up to 1500 Td (1 Td = 10-17 V. Cm²) with a mean relative deviation from measurements below 0. 2%. Finally, for Ar2+ ions, the hybrid method allowed us to obtain reduced mobilities with a mean relative deviation of 2% from experiments and to calculate the diffusion coefficients and reaction rates not available in the literature
13

Lossio-Ventura, Juan Antonio. "Towards the French Biomedical Ontology Enrichment." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS220/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En biomedicine, le domaine du « Big Data » (l'infobésité) pose le problème de l'analyse de gros volumes de données hétérogènes (i.e. vidéo, audio, texte, image). Les ontologies biomédicales, modèle conceptuel de la réalité, peuvent jouer un rôle important afin d'automatiser le traitement des données, les requêtes et la mise en correspondance des données hétérogènes. Il existe plusieurs ressources en anglais mais elles sont moins riches pour le français. Le manque d'outils et de services connexes pour les exploiter accentue ces lacunes. Dans un premier temps, les ontologies ont été construites manuellement. Au cours de ces dernières années, quelques méthodes semi-automatiques ont été proposées. Ces techniques semi-automatiques de construction/enrichissement d'ontologies sont principalement induites à partir de textes en utilisant des techniques du traitement du langage naturel (TALN). Les méthodes de TALN permettent de prendre en compte la complexité lexicale et sémantique des données biomédicales : (1) lexicale pour faire référence aux syntagmes biomédicaux complexes à considérer et (2) sémantique pour traiter l'induction du concept et du contexte de la terminologie. Dans cette thèse, afin de relever les défis mentionnés précédemment, nous proposons des méthodologies pour l'enrichissement/la construction d'ontologies biomédicales fondées sur deux principales contributions.La première contribution est liée à l'extraction automatique de termes biomédicaux spécialisés (complexité lexicale) à partir de corpus. De nouvelles mesures d'extraction et de classement de termes composés d'un ou plusieurs mots ont été proposées et évaluées. L'application BioTex implémente les mesures définies.La seconde contribution concerne l'extraction de concepts et le lien sémantique de la terminologie extraite (complexité sémantique). Ce travail vise à induire des concepts pour les nouveaux termes candidats et de déterminer leurs liens sémantiques, c'est-à-dire les positions les plus pertinentes au sein d'une ontologie biomédicale existante. Nous avons ainsi proposé une approche d'extraction de concepts qui intègre de nouveaux termes dans l'ontologie MeSH. Les évaluations, quantitatives et qualitatives, menées par des experts et non experts, sur des données réelles soulignent l'intérêt de ces contributions
Big Data for biomedicine domain deals with a major issue, the analyze of large volume of heterogeneous data (e.g. video, audio, text, image). Ontology, conceptual models of the reality, can play a crucial role in biomedical to automate data processing, querying, and matching heterogeneous data. Various English resources exist but there are considerably less available in French and there is a strong lack of related tools and services to exploit them. Initially, ontologies were built manually. In recent years, few semi-automatic methodologies have been proposed. The semi-automatic construction/enrichment of ontologies are mostly induced from texts by using natural language processing (NLP) techniques. NLP methods have to take into account lexical and semantic complexity of biomedical data : (1) lexical refers to complex phrases to take into account, (2) semantic refers to sense and context induction of the terminology.In this thesis, we propose methodologies for enrichment/construction of biomedical ontologies based on two main contributions, in order to tackle the previously mentioned challenges. The first contribution is about the automatic extraction of specialized biomedical terms (lexical complexity) from corpora. New ranking measures for single- and multi-word term extraction methods have been proposed and evaluated. In addition, we present BioTex software that implements the proposed measures. The second contribution concerns the concept extraction and semantic linkage of the extracted terminology (semantic complexity). This work seeks to induce semantic concepts of new candidate terms, and to find the semantic links, i.e. relevant location of new candidate terms, in an existing biomedical ontology. We proposed a methodology that extracts new terms in MeSH ontology. The experiments conducted on real data highlight the relevance of the contributions
14

Robert, Jean-Jacques. "Vues conceptuelles sur des bases d'information biomédicale : contribution au projet ARIANE." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'acces a des bases d'informations diverses, meme dans un domaine d'application determine, est souvent problematique du fait que l'organisation des donnees ne satisfait que rarement la conception que s'en fait l'utilisateur. Nous proposons un modele, reposant sur la theorie des graphes conceptuels, apte a formaliser une interface utilisateur avec des bases d'information. Cette interface conceptuelle a ete implantee selon la methodologie dite orientee-objet et experimentee dans le domaine biomedical
15

Pham, Cong Cuong. "Multi-utilisation de données complexes et hétérogènes : application au domaine du PLM pour l’imagerie biomédicale." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2365/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’émergence des technologies de l’information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L’essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l’augmentation quasi exponentielle des quantités de données au sein de l’entreprise. Plus les données sont volumineuses, plus la quantité d’interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d’information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L’augmentation de la complexité, la globalisation et le travail collaboratif font qu’un projet industriel (conception de produit) demande la participation et la collaboration d’acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d’assurer la qualité des données, d’éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L’accès aux données (ou la recherche de données), par définition est le processus d’extraction des informations à partir d’une base de données en utilisant des requêtes, pour répondre à une question spécifique. L’extraction des informations est une fonction indispensable pour tout système d’information. Cependant, cette dernière n’est jamais facile car elle représente toujours un goulot majeur d’étranglement pour toutes les organisations (Soylu et al. 2013). Dans l’environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l’utilisateur doit connaitre la structuration de données, c’est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n’est pas facile d’avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d’information. De plus, cette compréhension n’est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l’environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies
The emergence of Information and Comunication Technologies (ICT) in the early 1990s, especially the Internet, made it easy to produce data and disseminate it to the rest of the world. The strength of new Database Management System (DBMS) and the reduction of storage costs have led to an exponential increase of volume data within entreprise information system. The large number of correlations (visible or hidden) between data makes them more intertwined and complex. The data are also heterogeneous, as they can come from many sources and exist in many formats (text, image, audio, video, etc.) or at different levels of structuring (structured, semi-structured, unstructured). All companies now have to face with data sources that are more and more massive, complex and heterogeneous.technical information. The data may either have different denominations or may not have verifiable provenances. Consequently, these data are difficult to interpret and accessible by other actors. They remain unexploited or not maximally exploited for the purpose of sharing and reuse. Data access (or data querying), by definition, is the process of extracting information from a database using queries to answer a specific question. Extracting information is an indispensable function for any information system. However, the latter is never easy but it always represents a major bottleneck for all organizations (Soylu et al. 2013). In the environment of multiuse of complex and heterogeneous, providing all users with easy and simple access to data becomes more difficult for two reasons : - Lack of technical skills : In order to correctly formulate a query a user must know the structure of data, ie how the data is organized and stored in the database. When data is large and complex, it is not easy to have a thorough understanding of all the dependencies and interrelationships between data, even for information system technicians. Moreover, this understanding is not necessarily linked to the domain competences and it is therefore very rare that end users have sufficient theses such skills. - Different user perspectives : In the multi-use environment, each user introduces their own point of view when adding new data and technical information. Data can be namedin very different ways and data provenances are not sufficiently recorded. Consequently, they become difficultly interpretable and accessible by other actors since they do not have sufficient understanding of data semantics. The thesis work presented in this manuscript aims to improve the multi-use of complex and heterogeneous data by expert usiness actors by providing them with a semantic and visual access to the data. We find that, although the initial design of the databases has taken into account the logic of the domain (using the entity-association model for example), it is common practice to modify this design in order to adapt specific techniques needs. As a result, the final design is often a form that diverges from the original conceptual structure and there is a clear distinction between the technical knowledge needed to extract data and the knowledge that the expert actors have to interpret, process and produce data (Soylu et al. 2013). Based on bibliographical studies about data management tools, knowledge representation, visualization techniques and Semantic Web technologies (Berners-Lee et al. 2001), etc., in order to provide an easy data access to different expert actors, we propose to use a comprehensive and declarative representation of the data that is semantic, conceptual and integrates domain knowledge closeed to expert actors
16

Pellay, François-Xavier. "Méthodes d'estimation statistique de la qualité et méta-analyse de données transcriptomiques pour la recherche biomédicale." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10058/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La connaissance des gènes exprimés dans une cellule, dans des conditions physiologiques ou pathologiques, est un élément essentiel à la compréhension des phénomènes biologiques qui la gouvernent. Parmi les technologies permettant de mesurer l'expression génique, la plus utilisée est la technologie des puces à ADN capable de mesurer l'abondance relative des gènes exprimés dans les cellules. Les puces qualifiées de pangénomiques sont supposées couvrir l'ensemble des gènes existants, soit près de trente-mille dans l'espèce humaine. La mesure, l'analyse et l'interprétation d'une telle quantité de données posent un certain nombre de problèmes et la maîtrise des méthodes d'analyse utilisées déterminera la fiabilité et la précision des informations obtenues. Le but de cette thèse est de définir des méthodes permettant de contrôler les mesures, d'améliorer l'analyse et d'approfondir l'interprétation des données transcriptomiques afin d'en optimiser l'utilisation et de pouvoir appliquer ces méthodes pour analyser le transcriptome de patient atteint de leucémie myélomonocytalre juvénile dans le but d'améliorer le diagnostic et de comprendre les mécanismes biologiques de cette maladie rare. Nous avons ainsi développé, et validé au travers de nombreux projets indépendants, un programme de contrôle qualité des puces, ainsi qu'un logiciel qui permet d'améliorer les interprétations biologiques des données microarrays basées sur les ontologies des gènes, et un outil de visualisation et d'analyse globale des voies de signalisation. Enfin, en combinant plusieurs des approches , décrites, nous avons mis au point une méthode pour obtenir des signatures biologiques fiables à des fins diagnostiques
To understand the biological phenomena taking place in a cell under physiological or pathological conditions, it is essential to know the genes that it expresses Measuring genetic expression can be done with DNA chlp technology on which are set out thousands of probes that can measure the relative abundance of the genes expressed in the cell. The microarrays called pangenomic are supposed to cover all existing proteincoding genes, that is to say currently around thirty-thousand for human beings. The measure, analysis and interpretation of such data poses a number of problems and the analytlcal methods used will determine the reliability and accuracy of information obtained with the microarrays technology. The aim of thls thesis is to define methods to control measures, improve the analysis and deepen interpretation of microarrays to optimize their utilization in order to apply these methods in the transcriptome analysis of juvenile myelomocytic leukemia patients, to improve the diagnostic and understand the biological mechanisms behind this rare disease. We thereby developed and validated through several independent studies, a quality control program for microarrays, ace.map QC, a software that improves biological Interpretations of microarrays data based on genes ontologies and a visualization tool for global analysis of signaling pathways. Finally, combining the different approaches described, we have developed a method to obtain reliable biological signatures for diagnostic purposes
17

Savinaud, Mickaël. "Recalage de flux de données cinématiques pour l'application à l'imagerie optique." Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00545424.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi les approches d'imagerie préclinique, les techniques optiques sur petit animal fournissent une information fonctionnelle sur un phénomène biologique ainsi que sur sa localisation. De récents développements permettent d'exploiter ces méthodes dans le cadre de l'imagerie sur animal vigile. Les conditions physiologiques se rapprochent alors de celles du fonctionnement normal de l'organisme. Les travaux de cette thèse ont porté sur l'utilisation optimale de cette modalité via des méthodes originales d'analyse et de traitement.Les problèmes soulevés par la fusion des flux cinématiques et de données de bioluminescence nous ont amené à proposer des approches complémentaires d'estimationde mouvement de l'animal. La représentation sous forme implicite des informations issuesde la vidéo de l'animal permettent de construire un critère robuste à minimiser. L'ajout d'uncritère global mesurant la compacité du signal optique permet de considérer dans sa totalité les données multicanaux acquises pour augmenter la précision du recalage. Finalement ces deux modélisations offrent des résultats pertinents et validés expérimentalement.Dans le but de s'affranchir des contraintes de l'observation planaire de nos données nous avons conçu une méthode d'estimation du mouvement 3D de l'animal à partir d'un modèle pré-calculé. Grâce à un système d'acquisition multi-vues et simultanée de la scène, il est possible d'ajouter une contrainte sur l'estimation de la position de la source pour rendre robuste le suivi des poses issues de la vidéo. Les résultats expérimentaux montrent le potentiel de cette méthode pour fournir des mesures 3D précises sur l'animal vigile.
18

Zanella, Calzada Laura A. "Biomedical Event Extraction Based on Transformers and Knowledge Graphs." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0235.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'extraction d'événements biomédicaux peut être divisée en trois sous-tâches principales : (1) la détection de déclencheurs d'événements biomédicaux, (2) l'identification d'arguments biomédicaux et (3) la construction d'événements. Dans cette étude, pour la première sous-tâche, nous analysons un ensemble de modèles de langage transformer couramment utilisés dans le domaine biomédical afin d'évaluer et de comparer leur capacité à détecter les déclencheurs d'événements. Nous affinons les modèles en utilisant sept corpus annotés manuellement pour évaluer leurs performances dans différents sous-domaines biomédicaux. SciBERT s'est révélé être le modèle le plus performant, présentant une légère amélioration par rapport aux modèles de référence. Pour la deuxième sous-tâche, nous construisons un graphe de connaissances (KG, en anglais) à partir des corpus biomédicaux et intégrons ses embeddings KG à SciBERT pour enrichir son information sémantique. Nous démontrons que l'ajout des embeddings KG au modèle améliore la performance de l'identification d'arguments d'environ 20 %, et d'environ 15 % par rapport à deux modèles de référence. Pour la troisième sous-tâche, nous utilisons le modèle génératif, ChatGPT, basé sur des invitations, pour construire l'ensemble final d'événements extraits. Nos résultats suggèrent que l'affinage d'un modèle transformateur pré-entraîné à partir de zéro avec des données biomédicales et générales permet de détecter les déclencheurs d'événements et d'identifier des arguments couvrant différents sous-domaines biomédicaux, améliorant ainsi sa généralisation. De plus, l'intégration des embeddings KG dans le modèle peut significativement améliorer la performance de l'identification d'arguments d'événements biomédicaux, surpassant les résultats des modèles de référence
Biomedical event extraction can be divided into three main subtasks; (1) biomedical event trigger detection, (2) biomedical argument identification and (3) event construction. In this work, for the first subtask, we analyze a set of transformer language models that are commonly used in the biomedical domain to evaluate and compare their capacity for event trigger detection. We fine-tune the models using seven manually annotated corpora to assess their performance in different biomedical subdomains. SciBERT emerged as the highest-performing model, presenting a slight improvement compared to baseline models. For the second subtask, we construct a knowledge graph (KG) from the biomedical corpora and integrate its KG embeddings to SciBERT to enrich its semantic information. We demonstrate that adding the KG embeddings to the model improves the argument identification performance by around 20 %, and by around 15 % compared to two baseline models. For the third subtask, we use the generative model, ChatGPT, based on prompts to construct the final set of extracted events. Our results suggest that fine-tuning a transformer model that is pre-trained from scratch with biomedical and general data allows to detect event triggers and identify arguments covering different biomedical subdomains, and therefore improving its generalization. Furthermore, the integration of KG embeddings into the model can significantly improve the performance of biomedical event argument identification, outperforming the results of baseline models
19

Pierret, Jean-Dominique. "Méthodologie et structuration d'un outil de découverte de connaissances basé sur la littérature biomédicale : une application basée sur l'exploitation du MeSH." Toulon, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L´information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d´exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d´une requête est donc un ensemble d´informations connues qui n´apporte en lui-même aucune nouveauté. Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l´information disponible qu´à la méthodologie utilisée. Cette méthodologie générale s´applique de façon privilégiée dans un environnement d´information validée et structurée ce qui est le cas de l´information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu´elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d´information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature
The information available in bibliographic databases is dated and validated by a long process and becomes not very innovative. Usually bibliographic databases are consultated in a boolean way. The result of a request represente is a set of known which do not bring any additional novelty. In 1985 Don Swanson proposed an original method to draw out innovative information from bibliographic databases. His reasoning is based on systematic use of the biomedical literature to draw the latent connections between different well established knowledges. He demonstrated unsuspected potential of bibliographic databases in knowledge discovery. The value of his work did not lie in the nature of the available information but consisted in the methodology he used. This general methodology was mainly applied on validated and structured information that is bibliographic information. We propose to test the robustness of Swanson's theory by setting out the methods inspired by this theory. These methods led to the same conclusions as Don Swanson's ones. Then we explain how we developed a knowledge discovery system based on the literature available from public biomedical information sources
20

Lindberg, Arvid. "Development of rigid polarimetric endoscope for early detection of cancer in vivo." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le diagnostic précoce d’une lésion cancéreuse et l’ablation chirurgicale complète des zones malades restent les deux points cruciaux pour améliorer considérablement les chances de guérison d’un patient. Cependant la détection d’un cancer dans la phase initiale de son développement reste une tache très difficile à accomplir car liée à une prise aléatoire de biopsies alors que les parties pathologiques, à ce stade de la maladie, demeurent difficilement identifiables aux techniques d’imagerie classiques (imagerie visible, ultrasons, résonance magnétique, scanner rayon X, tomographie par émission de positrons). En plus l’évaluation des marges d’exérèse chirurgicale reste une tache encore très difficiles à accomplir, voire impossibles, dans certains cas.L’imagerie polarimétrique est une technique très prometteuse pour la détection précoce des lésions cancéreuses sur la surface des organes et pour une meilleure définition des limites de résection pendant la chirurgie. Les activités de recherche biomédicale développées à l’intérieur de l’équipe « Optique Appliquée et Polarimétrie » du LPICM sont centrées sur le développement d’imageurs polarimétriques de Mueller pour l’amélioration de la prise en charge des cancers épithéliaux, également appelés carcinomes, qui représentent le 80 – 90% de tous les cancers. A ce sujet le LPICM est porteur d’un projet financé par l’Institut National du Cancer (INCa) sur l’utilisation de l’imagerie polarimétrique pour l’amélioration de la prise en charge du cancer du col utérin à différents stades de son évolution. Actuellement une campagne extensive de mesures sur les lésions précancéreuses présentes au niveau du col utérin est en cours dans trois hôpitaux parisiens (Institut Gustave Roussy, Kremlin Bicêtre, Institut Mutualiste Montsouris). Cette étude ex vivo qui utilise un polarimètre de type Mueller grand champ en réflexion, va conduire à établir la performance du diagnostic de l’imagerie polarimétrique de Mueller, en termes de sensibilité et spécificité, comparée à celle fournie par les pathologistes et considérée comme le « gold standard » pour le diagnostic du cancer. Cette phase représente un point de départ pour l’utilisation in vivo de cette technique, car elle va apporter une connaissance précise des effets systématiques pouvant dégrader ses performances. A l’intérieur du projet INCa l’extension de la mesure du col utérin in vivo est prévue, utilisant un colposcope classique modifié pour obtenir les images polarimétriques de Mueller.L’endoscope est un autre instrument utilisé aussi pour diagnostiquer des lésions cancéreuses ou précancéreuses dans les muqueuses internes (œsophage, colon, rectum…). Le sujet de thèse proposé consiste à développer un endoscope polarimétrique de Mueller rigide et à établir ses performances. Le travail du doctorant comportera une partie d’instrumentation en optique, d’acquisition de données, de traitement de signal et d’évaluation de la performance statistique de la méthode. Le sujet de cette thèse se situe donc à l’interface entre la physique et le diagnostic médical et montre un fort potentiel de développement industriel avec un impact social significatif
Early diagnosis of a cancerous lesion and complete surgical resection of the diseased areas are both crucial points in order to greatly improve the chances for recovery of a patient. However, early detection of cancer is a very difficult task. It relies on random biopsies of suspicious areas which are not easy to identify at this stage of the disease using conventional imaging techniques (visible imaging, ultrasound, magnetic resonance, X-ray scanner, positron emission tomography). In addition, the correct evaluation of surgical resection margins remains often very difficult or even impossible in some cases.Polarimetric imaging is a promising technique for the early detection of cancerous lesions on the surface of the organs and for a better definition of the resection limits during surgery. Biomedical research activity, conducted within the 'Applied Optics and Polarimetry' team of the LPICM, focuses on the development of Mueller polarimetric imaging systems for improving the management of epithelial cancers, also known as carcinomas, which represent 80-90% of all cancers. In this regard the LPICM leads a project funded by the “Institut National du Cancer (INCa)”, on the use of Mueller polarimetric imaging for improving the management of cervical cancer at different stages of its evolution. At present an extensive series of ex vivo measurements is in progress in three different hospitals of Paris (Institut Gustave Roussy, Kremlin Bicêtre and Institut Mutualiste Montsouris). The final goal of this study is to evaluate the performance of Mueller polarimetric imaging technique in terms of sensitivity and specificity, while using an interpretation of corresponding histology slides by pathologists as a “golden standard” of cancer diagnostics. Ex vivo measurements provide a precise knowledge of the systematic effects which can negatively affect image quality. Hence, the results of this study represent a good starting point for in vivo applications of polarimetric imaging technique. Within the frame of INCa project the analysis of uterine cervix in vivo is planned, using a classical colposcope modified to obtain polarimetric Mueller images.The endoscope is another medical instrument used also to detect cancerous or precancerous lesions in the internal cavities of human body (esophagus, colon, rectum, etc.). The proposed thesis subject consists in developing a Mueller polarimetric rigid endoscope and evaluating its performance in terms of sensitivity and specificity. The work of PhD student will be concerned with instrumentation in optics, acquisition of data, signal processing and statistical evaluation of the performance of technique. Thus, the subject of this thesis is on the interface between physics and medical diagnostics and it shows a strong potential for industrial development with a significant societal impact
21

Letendre-Jauniaux, Mathieu. "Ajout de degrés de liberté à un appareil d'imagerie optique pour acquisition de données destinées à la reconstruction 3D par tomographie optique diffuse." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6191.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La tomographie optique diffuse (TOD) et la tomographie optique diffuse par fluorescence (TODF) sont de nouvelles techniques d'imagerie médicale fort prometteuses. L'utilisation de lumière dans le proche infrarouge(PIR) permet une acquisition in vivo fréquente et même en continue sans danger pour l'opérateur ou pour le sujet. Ces méthodes sont présentement le sujet de plusieurs recherches notamment par le groupe TomOptUS. Un appareil d'imagerie optique sur petit animal, le Quidd Optical imaging System (QOS) est disponible au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Muni d'une caméra refroidie à haute sensibilité et d'actionneurs contrôlés par ordinateur, il donne une grande flexibilité dans la géométrie d'acquisition en permettant notamment une rotation de la caméra sur une plage de ±60 degrés. L'appareil ne permet toutefois que l'acquisition de données en rétro-diffusion (ou épi-illumination), c'est à dire que la détection sur l'animal se fait du même côté que l'illumination. En TODF, un enjeu majeur est de pouvoir imager en profondeur dans les tissus. Pour ce faire, il devient important d'avoir accès à des mesures en transillumination. Le présent mémoire traite de l'ajout de degrés de libertés au QOS affin de permettre l'imagerie en transillumination tout en conservant la capacité d'épi-illumination. La configuration développée permet de déplacer l'excitation lumineuse indépendamment de l'acquisition et ce linéairement ainsi qu'angulairement autour du sujet. L'implantation nécessitant trois degrés de libertés (DDL) supplémentaires, l'utilisation de composantes standard a été préférée. Étant donné les contraintes identifiées, un actionneur rotatif ainsi que son contrôleur à base de micro-contrôleur ont été développés. Le présent document détaille les choix de conception ainsi que l'architecture du contrôleur. Avec la réalisation de ce projet, les utilisateurs du QOS disposent dorénavant d'un appareil flexible permettant l'acquisition de données tomographiques qui aideront à imager en profondeur dans le sujet. Quoique ceci ne fasse pas partie du cadre de cette maîtrise, le but ultime de l'acquisition de ces données est la reconstruction en trois dimensions de l'intérieur de l'animal imagé.
22

Brancotte, Bryan. "Agrégation de classements avec égalités : algorithmes, guides à l'utilisateur et applications aux données biologiques." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112184/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'agrégation de classements consiste à établir un consensus entre un ensemble de classements (éléments ordonnés). Bien que ce problème ait de très nombreuses applications (consensus entre les votes d'utilisateurs, consensus entre des résultats ordonnés différemment par divers moteurs de recherche...), calculer un consensus exact est rarement faisable dans les cas d'applications réels (problème NP-difficile). De nombreux algorithmes d'approximation et heuristiques ont donc été conçus. Néanmoins, leurs performances (en temps et en qualité de résultat produit) sont très différentes et dépendent des jeux de données à agréger. Plusieurs études ont cherché à comparer ces algorithmes mais celles-ci n’ont généralement pas considéré le cas (pourtant courant dans les jeux de données réels) des égalités entre éléments dans les classements (éléments classés au même rang). Choisir un algorithme de consensus adéquat vis-à-vis d'un jeu de données est donc un problème particulièrement important à étudier (grand nombre d’applications) et c’est un problème ouvert au sens où aucune des études existantes ne permet d’y répondre. Plus formellement, un consensus de classements est un classement qui minimise le somme des distances entre ce consensus et chacun des classements en entrés. Nous avons considérés (comme une grande partie de l’état-de-art) la distance de Kendall-Tau généralisée, ainsi que des variantes, dans nos études. Plus précisément, cette thèse comporte trois contributions. Premièrement, nous proposons de nouveaux résultats de complexité associés aux cas que l'on rencontre dans les données réelles où les classements peuvent être incomplets et où plusieurs éléments peuvent être classés à égalité. Nous isolons les différents « paramètres » qui peuvent expliquer les variations au niveau des résultats produits par les algorithmes d’agrégation (par exemple, utilisation de la distance de Kendall-Tau généralisée ou de variantes, d’un pré-traitement des jeux de données par unification ou projection). Nous proposons un guide pour caractériser le contexte et le besoin d’un utilisateur afin de le guider dans le choix à la fois d’un pré-traitement de ses données mais aussi de la distance à choisir pour calculer le consensus. Nous proposons finalement une adaptation des algorithmes existants à ce nouveau contexte. Deuxièmement, nous évaluons ces algorithmes sur un ensemble important et varié de jeux de données à la fois réels et synthétiques reproduisant des caractéristiques réelles telles que similarité entre classements, la présence d'égalités, et différents pré-traitements. Cette large évaluation passe par la proposition d’une nouvelle méthode pour générer des données synthétiques avec similarités basée sur une modélisation en chaîne Markovienne. Cette évaluation a permis d'isoler les caractéristiques des jeux de données ayant un impact sur les performances des algorithmes d'agrégation et de concevoir un guide pour caractériser le besoin d'un utilisateur et le conseiller dans le choix de l'algorithme à privilégier. Une plateforme web permettant de reproduire et étendre ces analyses effectuée est disponible (rank-aggregation-with-ties.lri.fr). Enfin, nous démontrons l'intérêt d'utiliser l'approche d'agrégation de classements dans deux cas d'utilisation. Nous proposons un outil reformulant à-la-volé des requêtes textuelles d'utilisateur grâce à des terminologies biomédicales, pour ensuite interroger de bases de données biologiques, et finalement produire un consensus des résultats obtenus pour chaque reformulation (conqur-bio.lri.fr). Nous comparons l'outil à la plateforme de références et montrons une amélioration nette des résultats en qualité. Nous calculons aussi des consensus entre liste de workflows établie par des experts dans le contexte de la similarité entre workflows scientifiques. Nous observons que les consensus calculés sont très en accord avec les utilisateurs dans une large proportion de cas
The rank aggregation problem is to build consensus among a set of rankings (ordered elements). Although this problem has numerous applications (consensus among user votes, consensus between results ordered differently by different search engines ...), computing an optimal consensus is rarely feasible in cases of real applications (problem NP-Hard). Many approximation algorithms and heuristics were therefore designed. However, their performance (time and quality of product loss) are quite different and depend on the datasets to be aggregated. Several studies have compared these algorithms but they have generally not considered the case (yet common in real datasets) that elements can be tied in rankings (elements at the same rank). Choosing a consensus algorithm for a given dataset is therefore a particularly important issue to be studied (many applications) and it is an open problem in the sense that none of the existing studies address it. More formally, a consensus ranking is a ranking that minimizes the sum of the distances between this consensus and the input rankings. Like much of the state-of-art, we have considered in our studies the generalized Kendall-Tau distance, and variants. Specifically, this thesis has three contributions. First, we propose new complexity results associated with cases encountered in the actual data that rankings may be incomplete and where multiple items can be classified equally (ties). We isolate the different "features" that can explain variations in the results produced by the aggregation algorithms (for example, using the generalized distance of Kendall-Tau or variants, pre-processing the datasets with unification or projection). We propose a guide to characterize the context and the need of a user to guide him into the choice of both a pre-treatment of its datasets but also the distance to choose to calculate the consensus. We finally adapt existing algorithms to this new context. Second, we evaluate these algorithms on a large and varied set of datasets both real and synthetic reproducing actual features such as similarity between rankings, the presence of ties and different pre-treatments. This large evaluation comes with the proposal of a new method to generate synthetic data with similarities based on a Markov chain modeling. This evaluation led to the isolation of datasets features that impact the performance of the aggregation algorithms, and to design a guide to characterize the needs of a user and advise him in the choice of the algorithm to be use. A web platform to replicate and extend these analyzes is available (rank-aggregation-with-ties.lri.fr). Finally, we demonstrate the value of using the rankings aggregation approach in two use cases. We provide a tool to reformulating the text user queries through biomedical terminologies, to then query biological databases, and ultimately produce a consensus of results obtained for each reformulation (conqur-bio.lri.fr). We compare the results to the references platform and show a clear improvement in quality results. We also calculate consensus between list of workflows established by experts in the context of similarity between scientific workflows. We note that the computed consensus agree with the expert in a very large majority of cases
23

Qin, Yingying. "Early breast anomalies detection with microwave and ultrasound modalities." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG058.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé: L'imagerie du sein est développée en associant données micro-ondes (MW) et ultrasonores (US) afin de détecter de manière précoce des tumeurs. On souhaite qu'aucune contrainte soit imposée, le sein étant supposé libre. Une 1re approche utilise des informations sur les frontières des tissus provenant de données de réflexion US. La régularisation intègre que deux pixels voisins présentent des propriétés MW similaires s'il ne sont pas sur une frontière. Ceci est appliqué au sein de la méthode itérative de Born distordue. Une 2de approche implique une régularisation déterministe préservant les bords via variables auxiliaires indiquant si un pixel est ou non sur un bord. Ces variables sont partagées par les paramètres MW et US. Ceux-ci sont conjointement optimisés à partir d'ume approche de minimisation alternée. L'algorithme met alternitivement à jour contraste US, marqueurs, et contraste MW. Une 3e approche implique réseaux de neurones convolutifs. Le courant de contraste estimé et le champ diffusé sont les entrées. Une structure multi-flux se nourrit des données MW et US. Le réseau produit les cartes des paramètres MW et US en temps réel. Outre la tâche de régression, une stratégie d'apprentissage multitâche est utilisée avec un classificateur qui associe chaque pixel à un type de tissu pour produire une image de segmentation. La perte pondérée attribue une pénalité plus élevée aux pixels dans les tumeurs si il sont mal classés. Une 4e approche implique un formalisme bayésien où la distribution a posteriori jointe est obtenue via la règle de Bayes ; cette distribution est ensuite approchée par une loi séparable de forme libre pour chaque ensemble d'inconnues pour obtenir l'estimation. Toutes ces méthodes de résolution sont illustrées et comparées à partir d'un grand nombre de données simulées sur des modèles synthétiques simples et sur des coupes transversales de fantômes mammaires numériques anatomiquement réalistes dérivés d'IRM dans lesquels de petites tumeurs artificielles sont insérées
Imaging of the breast for early detec-tion of tumors is studied by associating microwave (MW) and ultrasound (US) data. No registration is enforced since a free pending breast is tackled. A 1st approach uses prior information on tissue boundaries yielded from US reflection data. Regularization incorporates that two neighboring pixels should exhibit similar MW properties when not on a boundary while a jump allowed otherwise. This is enforced in the distorted Born iterative and the contrast source inversion methods. A 2nd approach involves deterministic edge preserving regularization via auxiliary variables indicating if a pixel is on an edge or not, edge markers being shared by MW and US parameters. Those are jointly optimized from the last parameter profiles and guide the next optimization as regularization term coefficients. Alternate minimization is to update US contrast, edge markers and MW contrast. A 3rd approach involves convolutional neural networks. Estimated contrast current and scattered field are the inputs. A multi-stream structure is employed to feed MW and US data. The network outputs the maps of MW and US parameters to perform real-time. Apart from the regression task, a multi-task learning strategy is used with a classifier that associates each pixel to a tissue type to yield a segmentation image. Weighted loss assigns a higher penalty to pixels in tumors when wrongly classified. A 4th approach involves a Bayesian formalism where the joint posterior distribution is obtained via Bayes’ rule; this true distribution is then approximated by a free-form separable law for each set of unknowns to get the estimate sought. All those solution methods are illustrated and compared from a wealth of simulated data on simple synthetic models and on 2D cross-sections of anatomically-realistic MRI-derived numerical breast phantoms in which small artificial tumors are inserted
24

Maschino, Emeric. "Fusion de modèles neuroanatomiques tridimensionnels." Paris 6, 2005. http://www.theses.fr/2005PA066528.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Cassar, Quentin. "Terahertz radiations for breast tumour recognition." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La faible précision avec laquelle sont délimitées les marges d'exérèse des adénocarcinomes mammaires se traduit par un recours régulier à un second acte chirurgical. Afin d'en limiter la fréquence, la communauté scientifique tente de définir les grands axes de conception d'un système intraopératif permettant la reconnaissance des lésions mammaires malines. Ce manuscrit de thèse rapporte les investigations menées sur la capacité des ondes térahertz à fournir un contraste entre tissus mammaires sains et malins. Les premiers travaux ont montré l'existence d'un contraste sur l'indice de réfraction entre 300 GHz et 1 THz, évalué en moyenne à 8%. Ce dît contraste semble prendre origine dans la dynamique des molécules d'eau intrinsèques aux cellules cancéreuses. Différentes techniques de segmentation d'image, basées sur l'indice de réfraction des zones tissulaires, ont permis de rapporter une sensibilité au cancer jusqu'à 80% tout en maintenant un taux de spécificité de l'ordre de 82%. L'ensemble de ces études a guidé la conception d'un imageur champ-proche opérant à 560 GHz, dont la réponse des différents senseurs est sensible à la permittivité en surface des tissus du sein
The failure to accurately delineate breast tumor margins during breast conserving surgeries results in a 20% re-excision rate. Consequently, there is a clear need for an operating room device that can precisely define intraoperatively breast tumor margins in a simple, fast, and inexpensive manner. This manuscript reports investigations that were conducted towards the ability of terahertz radiations to recognize breast malignant lesions among freshly excised breast volumes. Preliminary works on terahertz far-field spectroscopy have highlighted the existence of a contrast between healthy fibrous tissues and breast tumors by about 8% in refractive index over a spectral window spanning from 300 GHz to 1 THz. The origin for contrast was explored. Results seem to indicate that the dynamics of quasi-free water molecules may be a key factor for demarcation. On these basis, different methods for tissue segmentation based on refractive index map were investigated. A cancer sensitivity of 80% was reported while preserving a specificity of 82%. Eventually, these pilot studies have guided the design of a BiCMOS-compatible near-field resonator-based imager operating at 560 GHz and sensitive to permittivity changes over breast tissue surface
26

Curé, Olivier. "Siam : système intéractif d'automédication multimédia." Paris 5, 1999. http://www.theses.fr/1999PA05S019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le projet SIAM (système interactif d'automédication multimédia) est destiné au grand public et a pour objectif de rendre opérationnel sur internet un outil multimédia d'automédication, c'est-à-dire une aide à la proposition de médicaments à partir de l'identification d'un symptôme patient. La réalisation d'une telle application comporte les aspects suivants : - représentation des connaissances médicales et pharmacologiques utiles. - conception et réalisation de l'interface utilisateur sur internet. - mise à disposition de l'utilisateur de modules pertinents d'explication médicale. La représentation des connaissances fait appel à des disciplines variées telles que l'intelligence artificielle (IA), les sciences cognitives, ou les bases de connaissances et de données. Nous sommes tenus de traiter à la fois les aspects cliniques et thérapeutiques de cette application. Pour ce faire, notre système réalisé un lien entre les symptômes et les médicaments de façon a pouvoir conseiller l'utilisateur. Pour exploiter correctement sur le web d'internet une base d'environ 1500 médicaments et plusieurs dizaines de symptômes, nous avons choisi comme mode de représentation des connaissances une base de données relationnelle orientée système expert (SE), solution qui nous parait bien adaptée à l'important volume d'information qu'il convient de traiter. Les caractéristiques de ce système destiné au grand public, c'est-à-dire à un ensemble d'utilisateurs peu familiers aussi bien du domaine médical que de la navigation sur internet, induisent de très nombreuses contraintes sur la conception de l'interface d'utilisation. Celle-ci se distingue par une présentation constante sur toutes les pages du site, par la mise en œuvre d'un thesaurus et par un mode binaire de questions / réponses. L'un des intérêts principaux de ce système pour le grand public est de fournir des listes de médicaments disponibles sans ordonnance. Une place de choix est ainsi faite aux médicaments dits OTC (over the counter) ainsi qu'à l'automédication, en collaboration étroite avec les professionnels de la sante. Le système ainsi réalisé, par les avantages multiples qu'il procure à l'utilisateur, démontre l'intérêt que présente le développement sur internet d'outils d'aide à l'utilisation de médicaments.
27

Boudaoud, Sofiane. "Analyse de la variabilité de forme des signaux : Application aux signaux électrophysiologiques." Phd thesis, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00377428.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet de la thèse est l'analyse de la variabilité de forme d'un ensemble de signaux avec comme principales applications le traitement des signaux électrophysiologiques mesurés sur la chaîne auditive et le cœur. Cette variabilité de forme des signaux est souvent présente dans les signaux issus de processus naturels et elle est porteuse d'information. Pour accéder à cette information, il est nécessaire de formaliser le concept d'écart de forme et de proposer des outils statistiques spécifiques. Certaines méthodes, issues de la communauté statistique, ont été récemment proposées pour analyser la variabilité présente dans un ensemble de signaux. Ces méthodes travaillent dans un cadre fonctionnel en considérant les données comme des observations de fonctions. Elles cherchent à éliminer la variabilité temporelle dans le but d'accéder à une variabilité d'amplitude par divers algorithmes dit de « recalage de courbes ». Dans cette thèse nous proposons de nouvelles méthodes d'analyse de forme qui utilisent aussi un réalignement temporel (ang : time warping) mais dont le sens diffère des approches de recalage de courbes. De plus, ces méthodes proposent une moyenne de forme et distance de forme permettant la mesure de la variabilité de forme. Au chapitre 1, nous présentons toutes ces méthodes et les comparons afin d'aider l'utilisateur à bien choisir suivant l'application dédiée.

Au chapitre 2, nous nous intéressons à la caractérisation objective de l'acouphène, une sensation sonore fantôme. En effet, un problème majeur est l'absence de critère objectif pour le caractériser. Pour cela nous étudions l'activité spontanée composite (ASC) issue du nerf auditif et les potentiels évoqués (PE) issus de relais auditifs en présence de salicylate, un générateur d'acouphènes, chez le cochon d'Inde. La première partie du travail consiste en la présentation d'un modèle de génération de l'ASC. Ce modèle nous sert à tester en simulation des scénarios possibles d'altérations neurosensorielles en présence de salicylate. En complément de l'index spectral décrit dans la littérature, nous proposons d'employer un critère de similarité sur la distribution d'amplitude de l'ASC pour mesurer ces altérations. La seconde partie du chapitre consiste à étudier la variabilité temporelle des PE sur plusieurs relais auditifs en présence de salicylate.

Au chapitre 3, nous montrons des applications de détection de pathologies à partir de l'analyse de forme d'une composante spécifique de l'ECG, l'onde P. Les pathologies concernées sont la fibrillation auriculaire et l'apnée du sommeil.
28

Minard, Anne-Lyse. "Extraction de relations en domaine de spécialité." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00777749.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs.
29

Benferhat, Djamel. "Conception d'un système de communication tolérant la connectivité intermittente pour capteurs mobiles biométriques - Application à la supervision médicale de l'activité cardiaque de marathoniens." Phd thesis, Université de Bretagne Sud, 2013. http://tel.archives-ouvertes.fr/tel-00904627.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La technologie des objets mobiles communicants (capteurs, smartphones, PDA, netbooks, etc.) est en plein essor. On peut exploiter l'utilisation de ces objets mobiles communicants dans plusieurs domaines, en particulier dans le domaine médical, pour collecter des informations de santé. Actuellement, la plupart des applications médicales basent leur collecte d'information sur deux approches. La première approche s'appuie sur l'hypothèse d'une connectivité permanente. La collecte de données physiologiques au niveau du centre d'analyse s'effectue en continu et elle permet un traitement en temps réel des informations. Dans la deuxième approche, les données sont stockées sur un dispositif porté par le patient et le traitement des données est donc différé. Dans le cas où les patients sont mobiles, l'hypothèse de connectivité permanente est difficile à réaliser, compte tenu de la portée des dispositifs radio et de leur consommation en énergie. Pour faire face à d'éventuelles ruptures de connectivité, on peut utiliser un mécanisme de communications opportunistes avec des réseaux tolérants les ruptures (DTN). Nous défendons dans cette thèse l'idée qu'il n'est pas indispensable de disposer de moyens de transmission en continu pour assurer le suivi médical d'individus mobiles dans le domaine de la télé-santé, mais qu'au contraire, une approche opportuniste est possible et intéressante : elle peut offrir de bons résultats à faible coût. À l'appui de cette idée, nous avons choisi un scénario de référence, la supervision médicale de l'activité cardiaque de marathoniens, comportant des contraintes de réalisation difficiles. Il s'agissait de réaliser le suivi des électrocardiogrammes des coureurs à partir de capteurs ECG et en faisant appel à plusieurs stations de collecte par transmission sans fil déployées sur le chemin de la course. La première variante de ce système proposait une solution à moindres coûts basée sur le protocole de communication ZigBee. Une deuxième variante, faisait appel à la technologie Wi-Fi ou à des réseaux cellulaires très répandus de nos jours. Un système de collecte et de supervision a été développé, déployé et testé lors d'épreuves sportives. Les résultats de ces expérimentations confirment l'intérêt que peut apporter ce schéma de communication dans la supervision médicale d'individus mobiles, en s'appuyant sur les technologies disponibles. À partir du premier scénario réalisé, plusieurs variantes peuvent être déclinées pour réaliser des applications médicales moins contraignants et plus générales. Ainsi, nous avons pu montrer qu'en exploitant des infrastructures Wi-Fi communautaires il est possible d'effectuer une supervision quotidienne des paramètres cardiaques de patients mobiles. Les différents scénarios explorés ont permis de mieux cerner l'intérêt des communications opportunistes pour des applications liées au suivi médical.
30

Gautier, Isabelle. "Evolution quantitative et qualitative des protocoles d'essais cliniques présentés devant un comité d'éthique français." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0660.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La qualité méthodologique en recherche clinique est une exigence garantissant la fiabilité des expérimentations médicales, au bénéfice des praticiens comme à celui des patients. Cette thèse a pour objectif de mesurer la qualité des essais thérapeutiques présentés au Comité d’Ethique de la Région Sud-Est II et son évolution sur des périodes pluriannuelles. Deux études transversales exhaustives ont été réalisées. La première a pour objet de mesurer l’impact du Règlement Pédiatrique Européen de 2007 sur l’évolution qualitative et quantitative de essais pédiatriques, compte tenu du faible nombre de recherches dans cette population. La deuxième analyse le niveau de qualité des essais contrôlés randomisés en utilisant le score de Jadad et identifie les éléments qui l’influencent. L'outil de travail est constitué des protocoles détenus par le Comité d’Ethique, et non de publications de la littérature. Le concept de qualité et ses deux composantes, éthique et fiabilité scientifique, a été étudié. Les différents outils proposés par les experts pour mesurer la qualité ont été expertisés, ce qui a permis la sélection de l’échelle méthodologiquement la plus adaptée. Le niveau de qualité observé pour les essais pédiatriques est élevé, mais n’a pas été influencé par le Règlement Européen, qui a pu, cependant, entraîner une progression forte du nombre des essais pédiatriques, pouvant être l’indice d’un développement de la recherche en pédiatrie. Concernant les essais contrôlés randomisés, deux marqueurs sont associés à un haut score qualité des protocoles, identifiés après une analyse multivariée : le caractère multicentrique de la recherche et les essais portant sur les médicaments
Methodological quality in clinical research is mandatory to ensure the reliability of medical experiments, with benefits for both practitioners and patients. This PhD thesis aims at measuring the quality of therapeutic trials submitted to the Ethics Committee of the South-East Region II, and its evolution over several years. Two comprehensive cross-sectional studies were conducted. The first explore the field of pediatric research, and aims at measuring the impact of the introduction of European Pediatric Regulation in 2007, on the evolution of the quantity and quality of trials in this field, given the low number of research in this population. The second analyzes the quality of randomized controlled trials using the JADAD score and seeks to identify the elements that influence it. These studies were conducted using the protocols submitted to the Ethics Committee, and not from a literature analysis. The concept of quality was first studied based on their ethical and scientific reliability. The various assessing tools proposed by the experts to measure the quality were appraised, which allowed the selection of the most methodologically scale adapted to this study. Conclusion: we show that the level of quality observed for pediatric trials is high, but was not influenced by the introduction of the European Regulation, which could, on the other hand, have led to an important increase in the number of pediatric trials. Regarding randomized controlled trials, a multivariate analysis allowed the identification of two statistically significant markers associated with high quality score of the protocol: the multicentric character of the research, and the drugs trials
31

Neumann, Markus. "Automatic multimodal real-time tracking for image plane alignment in interventional Magnetic Resonance Imaging." Phd thesis, Université de Strasbourg, 2014. http://tel.archives-ouvertes.fr/tel-01038023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Interventional magnetic resonance imaging (MRI) aims at performing minimally invasive percutaneous interventions, such as tumor ablations and biopsies, under MRI guidance. During such interventions, the acquired MR image planes are typically aligned to the surgical instrument (needle) axis and to surrounding anatomical structures of interest in order to efficiently monitor the advancement in real-time of the instrument inside the patient's body. Object tracking inside the MRI is expected to facilitate and accelerate MR-guided interventions by allowing to automatically align the image planes to the surgical instrument. In this PhD thesis, an image-based workflow is proposed and refined for automatic image plane alignment. An automatic tracking workflow was developed, performing detection and tracking of a passive marker directly in clinical real-time images. This tracking workflow is designed for fully automated image plane alignment, with minimization of tracking-dedicated time. Its main drawback is its inherent dependence on the slow clinical MRI update rate. First, the addition of motion estimation and prediction with a Kalman filter was investigated and improved the workflow tracking performance. Second, a complementary optical sensor was used for multi-sensor tracking in order to decouple the tracking update rate from the MR image acquisition rate. Performance of the workflow was evaluated with both computer simulations and experiments using an MR compatible testbed. Results show a high robustness of the multi-sensor tracking approach for dynamic image plane alignment, due to the combination of the individual strengths of each sensor.
32

Tassé, Anne Marie. "La recherche internationale en génétique et l’utilisation secondaire des données : entre dissociation et harmonisation." Thèse, 2015. http://hdl.handle.net/1866/15850.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étude des polymorphismes et des aspects multifactoriels des déterminants de la santé suscite un engouement majeur envers la recherche populationnelle en génétique et génomique. Cette méthode de recherche requiert cependant la collecte et l’analyse d’un nombre élevé d’échantillons biologiques et de données associées, ce qui stimule le développement des biobanques. Ces biobanques, composées des données personnelles et de santé de milliers de participants, constituent désormais une ressource essentielle permettant l’étude de l’étiologie des maladies complexes et multifactorielles, tout en augmentant la rapidité et la fiabilité des résultats de recherche. Afin d’optimiser l’utilisation de ces ressources, les chercheurs combinent maintenant les informations contenues dans différentes biobanques de manière à créer virtuellement des mégacohortes de sujets. Cependant, tout partage de données à des fins de recherche internationale est dépendant de la possibilité, à la fois légale et éthique, d’utiliser ces données aux fins pressenties. Le droit d’utiliser les données personnelles, médicales et génétiques de participants dans le cadre de recherches internationales est soumis à un ensemble complexe et exhaustif d’exigences légales et éthiques. Cette complexité est exacerbée lorsque les participants sont décédés. Fondée sur une révision de l’interprétation individualiste du concept de consentement éclairé, ainsi qu’une perspective constructiviste des concepts de confiance et d’autonomie, cette thèse se situe au carrefour de la recherche, du droit et de l’éthique, et a pour objectif de proposer un modèle promouvant l’harmonisation éthique et juridique des données aux fins de recherches internationales en génétique.
The study of polymorphisms and multifactorial aspects of health determinants enthuses many researchers with regard to populationnal research in genetics and genomics. The research method accompanying this field of research, however, requires the collection and analysis of a large number of biological samples and associated data, which fosters the development of biobanks. Biobanks, which contain personal and health data of thousands of participants, are therefore an essential resource to study the complex etiology of multifactorial diseases, and increase the speed and reliability of results. To optimize the use of these resources, many researchers now combine information from different biobanks to create “virtual” mega-cohorts of research participants. Thus, any attempt to share the data for international research is dependent on the legal and ethical right to use such data. Irrespective, the right to use the personal, medical and genetic data of participants in the context of international research is subject to complex and comprehensive legal and ethical frameworks. This complexity is exacerbated when research participants are deceased. Based on a review of the individualistic interpretation of the notion of informed consent and a constructivist approach to trust and autonomy, this thesis situates itself at the crossroads of research, law and ethics. It aims to propose a model promoting the legal and ethical harmonization of data for international genetic research.
33

Bélaise, Colombe. "Estimation des forces musculaires du membre supérieur humain par optimisation dynamique en utilisant une méthode directe de tir multiple." Thèse, 2018. http://hdl.handle.net/1866/21856.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії