Siga este enlace para ver otros tipos de publicaciones sobre el tema: Prédiction Médicale.

Tesis sobre el tema "Prédiction Médicale"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Prédiction Médicale".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Wargon, Mathias. "Gestion des flux par les services d'urgence modélisation, prédiction et applications pratiques". Paris 6, 2010. http://www.theses.fr/2010PA066547.

Texto completo
Resumen
L’objectif du travail est modéliser les flux entrant des consultations et des admissions non programmées et l’impact sur les services d’urgences (SU). Les modélisations et les prédictions ont été élaborées à partir des données recueillies aux urgences. Après avoir déterminé la meilleure méthode, on a calculé l’influence des facteurs calendaires sur l’activité dans 4 SU de la région parisienne de 2004 à 2007. Une simulation par évènements discrets intégrant le nombre d’hospitalisations selon le jour de la semaine, la durée de séjour prévue en fonction du type d’hospitalisation, de l’âge et leurs distributions de probabilités a été réalisée pour estimer les besoins en lits d’un SU d’un hôpital parisien. Résultats : Nous avons choisi une méthode linéaire avec variables calendaires. Nous avons enregistré 622253 visites pour nos prédictions. Une Erreur Moyenne Absolue en Pourcentage (EMAP) de moins de 10% a été trouvée dans tous les modèles mathématiques analytiques. Les modèles hebdomadaires étaient différents d’un centre à l’autre, sans saisonnalité. Les poids des variables se modifient au cours du temps. La prédictibilité de la somme des 4 centres est meilleure avec une EMAP de 5,3% contre 8. 1% à 17% pour chaque centre isolé. D’après nos simulations, une coupure de la durée de séjour à 30 jours (soit 95% des patients âgés) ou une baisse des admissions programmées des patients de moins de 75 ans de 20% permettrait d’hospitaliser sans transferts les patients admis aux urgences sans augmenter la taille des unités d’observation. L’activité des urgences et des besoins en lits est prédictible et doit permettre une meilleur adaptation dans la prise en charge des hospitalisations des patients.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gazzotti, Raphaël. "Prédiction d’hospitalisation par la génération de caractéristiques extraites de graphes de connaissances". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4018.

Texto completo
Resumen
L’utilisation des dossiers médicaux électroniques (DMEs) et la prescription électronique sont des priorités dans les différents plans d’action européens sur la santé connectée. Le développement du DME constitue une formidable source de données ; il capture tous les épisodes symptomatiques dans la vie d’un patient et doit permettre l’amélioration des pratiques médicales et de prises en charge, à la condition de mettre en place des procédures de traitement automatique.A ce titre nous travaillons sur la prédiction d’hospitalisation à partir des DMEs et après les avoir représentés sous forme vectorielle, nous enrichissons ces modèles afin de profiter des connaissances issues de référentiels, qu’ils soient généralistes ou bien spécifiques dans le domaine médical, et cela, dans le but d’améliorer le pouvoir prédictif d’algorithmes de classification automatique. Déterminer les connaissances à extraire dans l’objectif de les intégrer aux représentations vectorielles est à la fois une tâche subjective et destinée aux experts, nous verrons une procédure semi-supervisée afin d’automatiser en partie ce processus.Du fruit de nos recherches, nous avons ébauché un produit destiné aux médecins généralistes afin de prévenir l’hospitalisation de leur patient ou du moins améliorer son état de santé. Ainsi, par le biais d’une simulation, il sera possible au médecin d’évaluer quels sont les facteurs impliqués dans le risque d’hospitalisation de son patient et de définir les actions préventives à planifier pour éviter l’apparition de cet événement.Cet algorithme d’aide à la décision a pour visée d’être directement intégré au logiciel de consultation des médecins et nous avons pour ce faire développé une interface graphique élaborée en collaboration avec de nombreux corps de métiers avec notamment les premiers concernés, des médecins généralistes
The use of electronic medical records (EMRs) and electronic prescribing are priorities in the various European action plans on connected health. The development of the EMR is a tremendous source of data; it captures all symptomatic episodes in a patient’s life and should lead to improved medical and care practices, as long as automatic treatment procedures are set up.As such, we are working on hospitalization prediction based on EMRs and after having represented them in vector form, we enrich these models in order to benefit from the knowledge resulting from referentials, whether generalist or specific in the medical field, in order to improve the predictive power of automatic classification algorithms. Determining the knowledge to be extracted with the objective of integrating it into vector representations is both a subjective task and intended for experts, we will see a semi-supervised procedure to partially automate this process.As a result of our research, we designed a product for general practitioners to prevent their patients from being hospitalized or at least improve their health. Thus, through a simulation, it will be possible for the doctor to evaluate the factors involved on the risk of hospitalization of his patient and to define the preventive actions to be planned to avoid the occurrence of this event.This decision support algorithm is intended to be directly integrated into the physician consultation software. For this purpose, we have developed in collaboration with many professional bodies, including the first to be concerned, general practitioners
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Temanni, Mohamed-Ramzi. "Combinaison de sources de données pour l'amélioration de la prédiction en apprentissage : une application à la prédiction de la perte de poids chez l'obèse à partir de données transcriptomiques et cliniques". Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00814513.

Texto completo
Resumen
Les maladies complexes comme l'obésité sont des maladies multifactorielles. Peu de travaux existent pour essayer de prédire les effets des différents traitements et ainsi mieux adapter les traitements aux patients. L'utilisation de modèles prédictifs pour mieux guider le choix des traitements de l'obésité reste un champ de recherche peu exploré malgré le fort impact qu'elle pourrait avoir vu la prévalence de cette maladie. Dans d'autres domaines de la médecine, comme la cancérologie par exemple, de telles méthodes sont déjà utilisées pour l'aide au diagnostic se basant notamment sur des données issues de puces à ADN. Cette technologie s'avère adaptée et son utilisation a donné lieu à des résultats intéressants pour dépister les maladies ou aider les médecins dans leur choix thérapeutique. Cependant si celle‐ci s'avère suffisante pour prédire d'une manière satisfaisante dans le domaine du cancer, en revanche elle s'avère d'un apport limité dans le cadre d'une application aux données de l'obésité. Cela suggère l'utilisation d'autres données patients pour améliorer les performances en prédiction. Les travaux de recherche présentés dans ce mémoire abordent les problèmes de la prédiction de la perte de poids suite à un régime ou une chirurgie bariatrique. Nous avons analysé le problème de la prédiction de la perte de poids à partir des données transcriptomique dans le cadre de deux projets européens et aussi à partir des données biocliniques dans le cadre de la chirurgie de l’obésité. Nous avons ensuite proposé trois concepts de combinaisons de modèles : combinaison de données, combinaison de méthodes et combinaison avec abstention. Nous avons analysé empiriquement ces trois approches et les expérimentations ont montré une amélioration des résultats pour les données de l'obésité même si ceux‐ci restent bien en deça de ce qu'on observe avec les données cancers
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Renaud, Bertrand. "Aide à la décision médicale par les règles de prédiction clinique au service d'urgence : l'exemple de la pneumopathie aigue communautaire". Paris 6, 2009. http://www.theses.fr/2009PA066543.

Texto completo
Resumen
L’accroissement explonentiel des nouvelles connaissances médicales compromet leur mise en application au prix d’une qualité des soins sous optimale. Ceci est encore plus vrai pour la médecine d’urgence, exercice où les contraintes révèlent encore plus crûment les limites cognitives de la prise de décision médicale. En effet, celle-ci repose principalement sur la capacité du médecin à prédire l’évolution du patient en fonction des éléments disponibles et à en déduire une prise en charge ad-hoc. Les règles de prédiction clinique sont la meilleure évidence disponible pour asseoir la décision médicale. Cet exposé rassemble les travaux menés avec l'équipe du service d'urgence du centre hospitalier universitaire H. Mondor sur l'aide à décision pour la prise en charge des pneumonies aiguës communautaires (PAC) basée sur l'utilisation d'une règle de prédiction clinique. Après avoir validé dans le contexte européen le Pneumonia Severity Index (PSI), développé en Amérique du Nord, le second travail présente l’impact de l’utilisation de cette règle en pratique quotidienne dans les services d’urgence français. Puis, dans le cadre d'une évaluation des pratiques professionnelles la mise en œuvre d'une stratégie globale pluridisciplinaire de prise en charge des PAC intégrant le calcul du PSI dans le dossier médical informatisé d’un service d’urgence est rapportée. Enfin, les deux derniers travaux présentent d’une part le développement d'une nouvelle règle de prédiction clinique pour les PAC sévères (REA-ICU: Risk of Early Admission to Intensive Care Unit) et d’autre part la démonstration par recurrence de la pertinence opérationnelle de cette nouvelle règle laissant présager d’une possible amélioration des pratiques médicales
The explonentially increasing amount of medical knowledge compromises its transfer to medical practice and results in suboptimal quality of care. This is of particular interest with regard to emergency medicine. Indeed, in few other domains of medicine is there such variety, novelty, distraction, and chaos, all juxtaposed to a need for expeditious and judicious thinking and in no other area of medicine, is decision density as high. Therefore, emergency medicine is particularly exposed to reveal the cognitive limits of medical decision making. Indeed, medical decision mainly depends on emergency physicians ability to predict patients’ outcome based on data available at presentation. Clinical prediction rules are the best evidence for guiding medical decision. The following text reports several studies conducted by the emergency department team of H Mondor university related hospital about the usefulness of a clinical prediction rule for guiding medical decision making process of patients presenting with a community acquired pneumonia (CAP). First, the European validation of the Pneumonia Severity Index (PSI) that has been intially developped in North America is reported. The second study reports the impact of routine use of the PSI in French emergency departments. Then, we report an evaluation of professional practices consisting in the implemention of a comprehensive strategy that included PSI assessment via the emergency department computerized medical file. Finally, the last two reports present on the one hand the development of a new clinical prediction rule for the severe CAP (REA-ICU: Risk of Early Admission to Intensive Care Unit) and on the other hand a demonstration by recurrence of the actual usefulness of this new rule that could be able to signicantly modify medical practices
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Harrison, Josquin. "Imagerie médicale, formes et statistiques pour la prédiction du risque d'accident vasculaire cérébral dans le cadre de la fibrillation atriale". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4027.

Texto completo
Resumen
La Fibrillation Atriale (FA) est une maladie cardiaque complexe aux proportions épidémiques. Elle se caractérise par une activation électrique chaotique et créé un environnement hémodynamique propice à la formation de caillots et à l'augmentation du risque d'accidents vasculaires cérébraux (AVC) ischémiques. Bien qu'il existe des traitements et interventions préventives visant à réduire l'incidence d'AVC, ils impliquent une augmentation du risque d'autres complications médicales ou consistent en des procédures invasives. C'est pourquoi les tentatives de stratification du risque d'AVC dans la FA sont d'une importance cruciale pour la prise de décision clinique. Malgré cela, les scores de risque actuellement utilisés ne reposent que sur des informations élémentaires du patient et sont peu performants. Aucun marqueur connu ne reflète le processus mécanique de l'AVC, tandis que de plus en plus de données sont collectées de façon routinière sans être utilisées. Bien que de nombreuses études cliniques suggèrent que l'Atrium Gauche (AG) joue un rôle important dans l’occurrence d'AVC, celles-ci ce basent sur des mesures subjectives pour le vérifier. En contraste, nous souhaitons exploiter l'avancée des méthodes de stratification d'imagerie médicale pour valider cette intuition.Pour cela, nous traduisons le lien existant entre l'anatomie de l'AG et le risque d'AVC en un problème géométrique, nous permettant ainsi de bénéficier d'un riche historique de ressources théoriques et appliquées sur l'analyse de formes. Nous passons en revue les nombreuses facettes de l'analyse de formes, et réalisons que, bien que puissantes, les méthodes existantes manquent d'interprétations cliniquement significatives. Nous nous basons néanmoins sur ces outils généraux pour construire une représentation compacte spécifique à l'AG qui permet une meilleure interprétation des résultats. Cette première tentative nous permet d'identifier les éléments clés d'une solution réaliste à l'étude de l'AG. Parmi eux, tout outil que nous construirons devra être suffisamment rapide et robuste pour être adaptés a de potentiels large études prospectives. Puisque l'étape cynétiquement déterminante du processus réside dans la segmentation sémantique des parties anatomiques de l'AG, nous nous concentrons sur l'utilisation de réseaux de neurones spécifiquement conçus pour les surfaces afin d'accélérer ce problème. En particulier, nous montrons que passer la courbure principale des formes en entrée des réseaux de neurones est un meilleur choix que ce qui est actuellement utilisé, quelle que soit l'architecture. Au fur et à mesure de l'amélioration itérative de notre pipeline, nous approfondissons l'utilisation de la segmentation sémantique et de la représentation compacte en proposant un ensemble de caractéristiques géométriques expressives décrivant l'AG -- parfaitement alignées avec les attentes des cliniciens tout en offrant la possibilité d'une analyse quantitative robuste. Nous utilisons ces caractéristiques locales et mettons en lumière les relations complexes entre la forme de l'AG et l'incidence d'AVC, en effectuant une analyse statistique ainsi qu'une classification à l'aide de méthodes basées sur les arbres de décision. Les résultats fournissent des informations précieuses pour la prédiction d'AVC : une liste de caractéristiques de forme directement liées aux patients victimes; des caractéristiques qui expliquent d'importants indicateurs de troubles hémodynamiques; et une meilleure compréhension de l'impact du remodelage de l'AG lié à l'état de la FA. Enfin, nous discutons d'autres utilisations possibles des outils développés dans ce travail, de l'étude de cohortes plus importantes à l'intégration dans des analyses multimodales, en passant par une potentielle analyse de sensibilité précise de simulation hémodynamiques, une étape précieuse pour une compréhension exhaustive du processus mécanique de l'AVC
Atrial Fibrillation (AF) is a complex heart disease of epidemic proportions. It is characterized by chaotic electrical activation which creates a haemodynamic environment prone to clot formation and an increase in risk of ischemic strokes. Although treatments and interventions exist to reduce stroke incidence, they often imply an increase in risk of other complications or consist in invasive procedures. As so, attempts of stratifying stroke risk in AF is of crucial importance for clinical decision-making. However, current widely used risk scores only rely on basic patient information and show poor performance. Importantly, no known markers reflect the mechanistic process of stroke, all the while more and more patient data is routinely available. In parallel, many clinical experts have hypothesized that the Left Atrium (LA) has an important role in stroke occurrence, yet have only relied on subjective measures to verify it. In this study, we aim at taking advantage of the evolving patient imaging stratification to substantiate this claim. Linking the anatomy of the LA to the risk of stroke can directly be translated into a geometric problem. Thankfully, the study and analysis of shapes knows a long-standing mathematical history, in theory as well as application, of which we can take full advantage. We first walk through the many facets of shape analysis, to realise that, while powerful, global methods lack clinically meaningful interpretations. We then set out to use these general tools to build a compact representation specific to the LA, enabling a more interpretable study. This first attempt allows us to identify key facts for a realistic solution to the study of the LA. Amongst them, any tool we build must be fast and robust enough for potentially large and prospective studies. Since the computational crux of our initial pipeline lies in the semantic segmentation of the anatomical parts of the LA, we focus on the use of neural networks specifically designed for surfaces to accelerate this problem. In particular, we show that representing input shapes using principal curvature is a better choice than what is currently used, regardless the architecture. As we iteratively update our pipeline, we further the use of the semantic segmentation and the compact representation by proposing a set of expressive geometric features describing the LA which are well in line with clinicians expectations yet offering the possibility for robust quantitative analysis. We make use of these local features and shed light on the complex relations between LA shape and stroke incidence, by conducting statistical analysis and classification using decision tree based methods. Results yield valuable insights for stroke prediction: a list of shape features directly linked to stroke patients; features that explain important indicators of haemodynamic disorder; and a better understanding of the impact of AF state related LA remodelling. Finally, we discuss other possible use of the set of tools developed in this work, from larger cohorts study, to the integration into multi-modal models, as well as opening possibilities for precise sensitivity analysis of haemodynamic simulation, a valuable next step to better understand the mechanistic process of stroke
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Marchesseau, Stephanie. "Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques". Thesis, Paris, ENMP, 2013. http://www.theses.fr/2012ENMP0082/document.

Texto completo
Resumen
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le « Reduced Order Unscented Kalman Filtering » est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche
The clinical understanding and treatment of cardiovascular diseases is highly complex. For each patient, cardiologists face issues in determining the pathology, choosing a therapy or selecting suitable patients for the therapy. In order to provide additional guidance to cardiologists, many research groups are investigating the possibility to plan such therapies based on biophysical models of the heart. The hypothesis is that one may combine anatomical and functional data to build patient-specific cardiac models that could have the potential to predict the benefits of different therapies. Cardiac electromechanical simulations are based on computational models that can represent the heart geometry, motion and electrophysiology patterns during a cardiac cycle with sufficient accuracy. Integration of anatomical, mechanical and electrophysiological information for a given subject is essential to build such models.In this thesis, we first introduce the geometry, kinematics and electrophysiology personalizations that are necessary inputs to mechanical modeling. We propose to use the Bestel-Cl'ement-Sorine electromechanical model of the heart, which is sufficiently accurate without being over-parametrized for the available data. We start by presenting a new implementation of this model in an efficient opensource framework for interactive medical simulation and we analyze the resulting simulations through a complete sensitivity analysis.In a second step, the goal is to personalize the mechanical parameters from medical images (MRI data). To this end, we first propose an automatic calibration algorithm that estimates global mechanical parameters from volume and pressure curves. This technique was tested on 7 volunteers and 2 heart failure cases and allowed to perform a preliminary specificity study that intends to determine the relevant parameters able to differentiate the pathological cases from the control cases.Once initialized with the calibrated values, the parameters are then locally personalized with a more complex optimization algorithm. Reduced Order Unscented Kalman Filtering is used to estimate the contractilities on all of the AHA zones of the Left Ventricle, matching the regional volumes extracted from cine MRI data. This personalization strategy was validated and tested on several pathological and healthy cases. These contributions have led to promising results through this thesis and some are already used for various research studies
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Cortet, Marion. "Construction et validation des modèles de prédiction : étude des utilités". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10197.

Texto completo
Resumen
La médecine est demandeuse de prédictions. Cette question de la prédiction se pose à différents moments de la prise en charge du patient, au moment du diagnostic, au moment de l'évaluation du pronostic et au moment du suivi, pour prendre les meilleures décisions possibles en termes de choix d'examens complémentaires et de choix de thérapeutique. La prédiction permet d'apporter une information au médecin et au patient pour prendre la décision. Pour construire ces modèles de prédiction, on dispose de bases de données qui nous permettent d'évaluer l'association entre des données cliniques ou biologiques et la probabilité de survenue d'un évènement. Pour quantifier ces associations, on utilise des modèles de régression logistique qui sont estimés d'après la méthode du maximum de vraisemblance. Pour évaluer ces modèles, on dispose de différents critères, qui quantifient leur adéquation, leur capacité de discrimination, leur calibration. Ces modèles vont nous permettre de prendre une décision. Les erreurs de prédiction vont mener à des erreurs de décision. Les conséquences de ces décisions sont quantifiables grâce à la théorie des utilités. C'est donc un critère quantifiant l'utilité du modèle qui nous permet de choisir le modèle le plus utile. La construction de modèles de prédiction est particulièrement importante dans le domaine clinique de l'obstétrique. En effet, il est important dans le cas des hémorragies de la délivrance de prévenir l'aggravation de la situation, et donc de distinguer les patientes qui vont s'aggraver très rapidement. Le taux de fibrinogène a été étudié, comme prédicteur d'une évolution grave de l'hémorragie. Les variables cliniques disponibles au moment du diagnostic ont ensuite été étudiées. Dans la situation de la rupture prématurée des membranes, il existe un choix à faire entre deux décisions qui induisent une morbidité néonatale et maternelle : la naissance prématurée et le risque de chorioamniotite. Des marqueurs du risque de chorioamniotite pourraient donc faciliter la prise de décision en augmentant l'information pour le clinicien. De plus en plus de modèles de prédiction sont développés dans toutes les situations cliniques. Il faut rester critique vis-à-vis de ces modèles. Leur évaluation doit tenir compte de leur utilisation, et doit donc tenir compte de leur utilité en situation de prise de décision
Medicine asks for prediction. Prediction is needed at different point in the management of a patient. To take the best decision as possible for complementary exams, or therapeutics. Prediction gives an information to the practitioner and the patient, to take a decision. To build these prediction models, we have data bases. The association between clinical or biological data and the outcome probability can be estimated thanks to these data bases. To measure these associations, logistic regression models are used. They are estimated with maximum likelihood method. To evaluate these models, different criteria exist. These criteria quantify adequacy, discrimination capacity, calibration. These models help to take a decision. Prediction errors lead to decision errors. Consequences of these decisions are measurable with utility theory. Therefore, it is a criteria that measure utility of a model that enables us to select the most useful model. Prediction model building is an important point in obstetrics. Indeed, in case of postpartum haemorrhage, it is important to prevent worsening of the clinical situation, and therefore, to identify patient who will worsen fastly. Fibrinogen level was studied as a predictor of severe postpartum haemorrhage. Clinical variables availables at diagnosis of postpartum haemorrhage was then studied. In case of preterm premature rupture of membranes, there is a decision to take, between two choices that may lead to maternal of neonatal morbidity: preterm birth and chorioamnionitis risk with pregnancy continuation. Markers of chorioamnionitis risk may help the practitioners for decision making, by increasing the information. More and more prediction models are developed in all clinical situations. We must be critical before using these models in real life. Their evaluation must take into account their use, and therefore, their utility in case of decision making
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Marchesseau, Stéphanie. "Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00820082.

Texto completo
Resumen
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le " Reduced Order Unscented Kalman Filtering " est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Temanni, Mohamed Ramzi. "Combinaison de sources de données pour l'amélioration de la prédiction en apprentissage : une application à la prédiction de la perte de poids chez l'obèse à partir de données transcriptomiques et cliniques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00814513.

Texto completo
Resumen
Les maladies complexes comme l'obésité sont des maladies multifactorielles. Peu de travaux existent pour essayer de prédire les effets des différents traitements et ainsi mieux adapter les traitements aux patients. L'utilisation de modèles prédictifs pour mieux guider le choix des traitements de l'obésité reste un champ de recherche peu exploré malgré le fort impact qu'elle pourrait avoir vu la prévalence de cette maladie. Dans d'autres domaines de la médecine, comme la cancérologie par exemple, de telles méthodes sont déjà utilisées pour l'aide au diagnostic se basant notamment sur des données issues de puces à ADN. Cette technologie s'avère adaptée et son utilisation a donné lieu à des résultats intéressants pour dépister les maladies ou aider les médecins dans leur choix thérapeutique. Cependant si celle‐ci s'avère suffisante pour prédire d'une manière satisfaisante dans le domaine du cancer, en revanche elle s'avère d'un apport limité dans le cadre d'une application aux données de l'obésité. Cela suggère l'utilisation d'autres données patients pour améliorer les performances en prédiction. Les travaux de recherche présentés dans ce mémoire abordent les problèmes de la prédiction de la perte de poids suite à un régime ou une chirurgie bariatrique. Nous avons analysé le problème de la prédiction de la perte de poids à partir des données transcriptomique dans le cadre de deux projets européens et aussi à partir des données biocliniques dans le cadre de la chirurgie de l'obésité. Nous avons ensuite proposé trois concepts de combinaisons de modèles : combinaison de données, combinaison de méthodes et combinaison avec abstention. Nous avons analysé empiriquement ces trois approches et les expérimentations ont montré une amélioration des résultats pour les données de l'obésité même si ceux‐ci restent bien en deça de ce qu'on observe avec les données cancers
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Le, Corroller Thomas. "Altérations de la structure osseuse de l'extrémité proximale du fémur : Analyse en imagerie médicale, étude biomécanique, et application à la prédiction du risque fracturaire". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4010.

Texto completo
Resumen
La fracture ostéoporotique du col fémoral et la coxarthrose constituent aujourd'hui deux enjeux majeurs de santé publique chez les sujets âgés. L'ostéoporose est définie par une diminution de la masse osseuse et une altération de la structure osseuse. La coxarthrose d'autre part associe la perte progressive du cartilage d'encroûtement articulaire, une sclérose osseuse sous-chondrale, des géodes sous-chondrales, et des ostéophytes marginaux. Bien qu'une masse osseuse élevée semble prédisposer à l'arthrose, les relations métaboliques et biomécaniques entre ostéoporose et coxarthrose sont complexes. L'évaluation de l'architecture osseuse de l'extrémité proximale du fémur est un des enjeux majeurs de recherche actuels visant à la caractérisation des modifications du tissu osseux liées au vieillissement. Notre travail de thèse s'est inscrit dans un projet pluridisciplinaire de recherche sur les altérations de la structure osseuse de l'extrémité proximale du fémur, reposant sur une analyse en imagerie médicale et une étude biomécanique de cette région anatomique fondamentale
Fracture of the proximal femur and hip osteoarthritis are nowadays a major public health problem in elderly persons. The current definition of osteoporosis is a low bone mass associated with microarchitecture deterioration. On the other hand, osteoarthritis corresponds to progressive articular cartilage loss, subchondral bone sclerosis, subchondral bone cysts, and marginal osteophytes. Although a higher bone mass may increase the risk of osteoarthritis, osteoporosis and hip osteoarthritis present a complex metabolic and biomechanical relationship. The proximal femur architectural evaluation and characterization of age-related osseous alterations are currently one of the main challenges in bone and mineral research. Our work was based on a multidisciplinary project which aimed at evaluating the age-related structural deterioration of the proximal femur using medical imaging and biomechanical testing in this crucial anatomical region
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Bellón, Molina Víctor. "Prédiction personalisée des effets secondaires indésirables de médicaments". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM023/document.

Texto completo
Resumen
Les effets indésirables médicamenteux (EIM) ont des répercussions considérables tant sur la santé que sur l'économie. De 1,9% à 2,3% des patients hospitalisés en sont victimes, et leur coût a récemment été estimé aux alentours de 400 millions d'euros pour la seule Allemagne. De plus, les EIM sont fréquemment la cause du retrait d'un médicament du marché, conduisant à des pertes pour l'industrie pharmaceutique se chiffrant parfois en millions d'euros.De multiples études suggèrent que des facteurs génétiques jouent un rôle non négligeable dans la réponse des patients à leur traitement. Cette réponse comprend non seulement les effets thérapeutiques attendus, mais aussi les effets secondaires potentiels. C'est un phénomène complexe, et nous nous tournons vers l'apprentissage statistique pour proposer de nouveaux outils permettant de mieux le comprendre.Nous étudions différents problèmes liés à la prédiction de la réponse d'un patient à son traitement à partir de son profil génétique. Pour ce faire, nous nous plaçons dans le cadre de l'apprentissage statistique multitâche, qui consiste à combiner les données disponibles pour plusieurs problèmes liés afin de les résoudre simultanément.Nous proposons un nouveau modèle linéaire de prédiction multitâche qui s'appuie sur des descripteurs des tâches pour sélectionner les variables pertinentes et améliorer les prédictions obtenues par les algorithmes de l'état de l'art. Enfin, nous étudions comment améliorer la stabilité des variables sélectionnées, afin d'obtenir des modèles interprétables
Adverse drug reaction (ADR) is a serious concern that has important health and economical repercussions. Between 1.9%-2.3% of the hospitalized patients suffer from ADR, and the annual cost of ADR have been estimated to be of 400 million euros in Germany alone. Furthermore, ADRs can cause the withdrawal of a drug from the market, which can cause up to millions of dollars of losses to the pharmaceutical industry.Multiple studies suggest that genetic factors may play a role in the response of the patients to their treatment. This covers not only the response in terms of the intended main effect, but also % according toin terms of potential side effects. The complexity of predicting drug response suggests that machine learning could bring new tools and techniques for understanding ADR.In this doctoral thesis, we study different problems related to drug response prediction, based on the genetic characteristics of patients.We frame them through multitask machine learning frameworks, which combine all data available for related problems in order to solve them at the same time.We propose a novel model for multitask linear prediction that uses task descriptors to select relevant features and make predictions with better performance as state-of-the-art algorithms. Finally, we study strategies for increasing the stability of the selected features, in order to improve interpretability for biological applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Emam, Mohammed. "Prédiction des facteurs de risque conduisant à l'emphysème chez l'homme par utilisation de techniques diagnostiques". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00698101.

Texto completo
Resumen
Les broncho-pneumopathies chroniques obstructives (BPCO) constituent un groupe de maladies des poumons caractérisées par le blocage du passage de l'air, rendant la respiration de plus en plus difficile. L'emphysème et la bronchite chronique sont les deux principales affections parmi les BPCO, mais les BPCO peuvent également être provoquées par les dégâts causés par des bronchites chroniques asthmatiques. L'emphysème pulmonaire est une maladie pulmonaire caractérisée par l'élargissement des espaces aériens distaux en amont des bronchioles terminales non respiratoires, accompagné de la destruction des parois alvéolaires. Ces modifications du parenchyme pulmonaire sont pathognomoniques de l'emphysème. La bronchite chronique est une forme de bronchite caractérisée par une production excessive d'expectoration, entraînant l'apparition d'une toux chronique et l'obstruction des voies respiratoires. Dans toutes ces affections, les dégâts causés aux voies respiratoires finissent par affecter les échanges gazeux dans les poumons. L'emphysème est généralement diagnostiqué de façon indirecte, sur la base d'un examen clinique, d'explorations de la fonction respiratoire (EFR), et d'une évaluation visuelle subjective des scanners des tomodensitogrammes. Ces tests présentent une valeur limitée dans les cas d'emphysème léger ou modéré. La présente étude aborde la possibilité d'appliquer une démarche d'analyse non linéaire à la répartition de la densité de l'air au sein de l'arbre des voies respiratoires des poumons à un quelconque niveau des ramifications. Les images sources de tomodensitométrie (TDM) du poumon sont traitées en deux phases, afin de produire un coefficient fractal de répartition de la densité de l'air. Au cours de la première phase, les valeurs brutes de pixel des images sources correspondant à toutes les densités d'air possibles sont traitées par un outil logiciel, mis au point pour construire une image cible. On y parvient par suppression en cascade des éléments indésirables (SCEI) : une étape de prétraitement dans l'analyse de l'image source. Celle-ci permet d'identifier les valeurs de densité d'air au sein de l'arbre des voies respiratoires, tout en éliminant toutes les valeurs non relatives à la densité de l'air. La seconde phase consiste en une réduction itérative de la résolution (RIR). Chaque réduction de la résolution produit un nouvel histogramme. Chaque histogramme ainsi produit comporte un certain nombre de pics, chacun d'entre eux correspondant à un ensemble de densités d'air. La courbe mettant en relation chaque réduction de la résolution avec le nombre de pics correspondant, obtenus à la résolution concernée, est tracée. Ceci permet de calculer la dimension fractale par une régression linéaire sur un graphique log - log.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Giacalone, Mathilde. "Traitement et simulation d’images d’IRM de perfusion pour la prédiction de l’évolution de la lésion ischémique dans l’accident vasculaire cérébral". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1194/document.

Texto completo
Resumen
L'Accident Vasculaire Cérébral (AVC) - pathologie résultant d'une perturbation de l'apport sanguin dans le cerveau - est un problème de santé publique majeur, représentant la troisième cause de mortalité dans les pays industrialisés. Afin d'améliorer la prise en charge des patients atteints d'un AVC, il est important de posséder des méthodes efficaces pour l'identification des patients éligibles aux différentes thérapies et pour l'évaluation du rapport bénéfice/risque associé à ces thérapies. Dans ce contexte, l'Imagerie par Résonance Magnétique (IRM) dynamique de perfusion par contraste de susceptibilité, une modalité d'imagerie utile pour apprécier l'état de la perfusion cérébrale, peut aider à identifier les tissus à risque de s'infarcir. Cependant, l'intégralité de la chaîne de traitement, de l'acquisition à l'analyse et l'interprétation de l'IRM de perfusion demeure complexe et plusieurs limitations restent encore à surmonter. Durant ces travaux de thèse, nous contribuons à l'amélioration de la chaîne de traitement de l'IRM de perfusion, avec comme objectif final, l'obtention d'une meilleure prédiction de l'évolution de la lésion ischémique dans l'AVC. Dans une première partie, nous travaillons principalement sur l'étape de déconvolution des signaux temporels, une des étapes clefs à l'amélioration de l'IRM de perfusion. Cette étape consiste en la résolution d'un problème inverse mal-posé, et permet le calcul de paramètres hémodynamiques qui sont des biomarqueurs importants pour la classification de l'état final des tissus dans l'AVC. Afin de comparer de façon objective les performances des différents algorithmes de déconvolution existants et d'en valider des nouveaux, il est nécessaire d'avoir accès à une information sur la vérité terrain après déconvolution. Dans ce but, nous avons développé un simulateur numérique pour l'IRM de perfusion, avec une vérité terrain générée automatiquement. Ce simulateur est utilisé pour démontrer la faisabilité d'une automatisation du réglage des paramètres de régularisation, et établir la robustesse d'un algorithme de déconvolution avec régularisation spatio-temporelle d'introduction récente. Nous proposons également un nouvel algorithme de déconvolution globalement convergent. Enfin, la première partie de ces travaux se termine avec une discussion sur une autre étape de la chaîne de traitement en IRM de perfusion, à savoir, la normalisation des cartes de paramètres hémodynamiques extraites des images déconvoluées
Stroke – a neurological deficit resulting from blood supply perturbations in the brain – is a major public health issue, representing the third cause of death in industrialized countries. There is a need to improve the identification of patients eligible to the different therapies, as well as the evaluation of the benefit-risk ratio for the patients. In this context, perfusion Dynamic Susceptibility Contrast (DSC)-MRI, a prominent imaging modality for the assessment of cerebral perfusion, can help to identify the tissues at risk of infarction from the benign oligaemia. However, the entire pipeline from the acquisition to the analysis and interpretation of a DSC-MRI remains complex and some limitations are still to be overcome. During this PhD work, we contribute to improving the DSC-MRI processing pipeline with the ultimate objective of ameliorating the prediction of the ischemic lesion evolution in stroke. In a first part, we primarily work on the step of temporal signal deconvolution, one of the steps key to the improvement of DSC-MRI. This step consists in the resolution of an inverse ill-posed problem and allows the computation of hemodynamic parameters which are important biomarkers for tissue fate classification in stroke. In order to compare objectively the performances of existing deconvolution algorithms and to validate new ones, it is necessary to have access to information on the ground truth after deconvolution. To this end, we developed a numerical simulator of DSC MRI with automatically generated ground truth. This simulator is used to demonstrate the feasability of a full automation of regularization parameters tuning and to establish the robustness of a recent deconvolution algorithm with spatio-temporal regularization. We then propose a new globally convergent deconvolution algorithm. Then, this first part ends with a discussion on another processing step in the DSC-MRI pipeline, the normalisation of the hemodynamic parameters maps extracted from the deconvolved images. In a second part, we work on the prediction of the evolution of the tissue state from longitudinal MRI data. We first demonstrate the interest of modeling longitudinal MRI studies in stroke as a communication channel where information theory provides useful tools to identify the hemodynamic parameters maps carrying the highest predictive information, determine the spatial observation scales providing the optimal predictivity for tissue classification as well as estimate the impact of noise in prediction studies. We then demonstrate the interest of injecting shape descriptors of the ischemic lesion in acute stage in a linear regression model for the prediction of the final infarct volume. We finally propose a classifier of tissue fate based on local binary pattern for the encoding of the spatio-temporal evolution of the perfusion MRI signals
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Emam, Mohammed. "Prédiction des facteurs de risque conduisant à l’emphysème chez l’homme par utilisation de techniques diagnostiques". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112081/document.

Texto completo
Resumen
Les broncho-pneumopathies chroniques obstructives (BPCO) constituent un groupe de maladies des poumons caractérisées par le blocage du passage de l’air, rendant la respiration de plus en plus difficile. L’emphysème et la bronchite chronique sont les deux principales affections parmi les BPCO, mais les BPCO peuvent également être provoquées par les dégâts causés par des bronchites chroniques asthmatiques. L’emphysème pulmonaire est une maladie pulmonaire caractérisée par l’élargissement des espaces aériens distaux en amont des bronchioles terminales non respiratoires, accompagné de la destruction des parois alvéolaires. Ces modifications du parenchyme pulmonaire sont pathognomoniques de l’emphysème. La bronchite chronique est une forme de bronchite caractérisée par une production excessive d’expectoration, entraînant l’apparition d’une toux chronique et l’obstruction des voies respiratoires. Dans toutes ces affections, les dégâts causés aux voies respiratoires finissent par affecter les échanges gazeux dans les poumons. L’emphysème est généralement diagnostiqué de façon indirecte, sur la base d’un examen clinique, d’explorations de la fonction respiratoire (EFR), et d’une évaluation visuelle subjective des scanners des tomodensitogrammes. Ces tests présentent une valeur limitée dans les cas d’emphysème léger ou modéré. La présente étude aborde la possibilité d’appliquer une démarche d’analyse non linéaire à la répartition de la densité de l’air au sein de l’arbre des voies respiratoires des poumons à un quelconque niveau des ramifications. Les images sources de tomodensitométrie (TDM) du poumon sont traitées en deux phases, afin de produire un coefficient fractal de répartition de la densité de l’air. Au cours de la première phase, les valeurs brutes de pixel des images sources correspondant à toutes les densités d’air possibles sont traitées par un outil logiciel, mis au point pour construire une image cible. On y parvient par suppression en cascade des éléments indésirables (SCEI) : une étape de prétraitement dans l’analyse de l’image source. Celle-ci permet d’identifier les valeurs de densité d’air au sein de l’arbre des voies respiratoires, tout en éliminant toutes les valeurs non relatives à la densité de l’air. La seconde phase consiste en une réduction itérative de la résolution (RIR). Chaque réduction de la résolution produit un nouvel histogramme. Chaque histogramme ainsi produit comporte un certain nombre de pics, chacun d’entre eux correspondant à un ensemble de densités d’air. La courbe mettant en relation chaque réduction de la résolution avec le nombre de pics correspondant, obtenus à la résolution concernée, est tracée. Ceci permet de calculer la dimension fractale par une régression linéaire sur un graphique log – log
Chronic Obstructive Pulmonary Disease (COPD) refers to a group of lung diseases that block airflow and make it increasingly difficult for you to breathe. Emphysema and chronic bronchitis are the two main conditions that make up COPD, but COPD can also refer to damage caused by chronic asthmatic bronchitis. Pulmonary emphysema is defined as a lung disease characterized by “abnormal enlargement of the air spaces distal to the terminal, non-respiratory bronchiole, accompanied by destructive changes of the alveolar walls”. These lung parenchymal changes are pathognomonic for emphysema. Chronic bronchitis is a form of bronchitis characterized by excess production of sputum leading to a chronic cough and obstruction of air flow. In all cases, damage to your airways eventually interferes with the exchange of oxygen and carbon dioxide in your lungs. Habitual techniques of emphysema’s diagnosis are based on indirect features, such as clinical examination; Pulmonary Function Tests (PFT) and subjective visual evaluation of CT scans. These tests are of limited value in assessing mild to moderate emphysema. The presented work discusses the possibility of applying a nonlinear analysis approach on air density distribution within lung airways tree at any level of branching. Computed Tomography (CT) source images of the lung are subjected to two phases of treatment in order to produce a fractal coefficient of the air density distribution. In the first phase, raw pixel values from source images, corresponding to all possible air densities, are processed by a software tool, developed in order to, construct a product image. This is done through Cascading Elimination of Unwanted Elements (CEUE): a preprocessing analysis step of the source image. It identifies values of air density within the airways tree, while eliminating all non-air-density values. Then, during the second phase, in an iterative manner, a process of Resolution Diminution Iterations (RDI) takes place. Every resolution reduction produces a new resultant histogram. A resultant histogram is composed of a number of peaks, each of which corresponding to a cluster of air densities. A curve is plotted for each resolution reduction versus the number of peaks counted at this particular resolution. It permits the calculation of the fractal dimension from the regression slope of log-log power law plot
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Dousteyssier, Boris. "Construction d’un modèle morpho mécanique du genou pour la prédiction des conséquences d’une action thérapeutique". Thesis, Lyon, 2017. https://tel.archives-ouvertes.fr/tel-02869689.

Texto completo
Resumen
Afin d’étudier la question de l’usure du genou et de la douleur lors du développement de l’arthrose, relié à la fois aux pressions sur les cartilages et la stabilité du genou, un modèle de l’articulation du genou a été créé. Cette étude propose une approche mixte, utilisant à la fois des imageries médicales (IRM, système EOS) et un capteur de force en conjonction avec un modèle EF. Deux modèles EF ont été créés ici, se focalisant sur la stabilité passive du genou lors de la recréation d’un processus expérimental : la décomposition en 4 images EOS statiques du mouvement de montée de marche d’escalier. Pour ce faire, un modèle géométrique du genou du sujet a été recalé sur la position physiologique des os obtenue par les images EOS. Les conditions aux limites expérimentales ont été ajoutées et la simulation numérique a été menée jusqu’à ce que l’équilibre mécanique global soit atteint. Ensuite la position simulée des os a pu être comparée avec la position expérimentale, et les surfaces de pression et les contraintes dans les ligaments été obtenues.Pour des angles de flexion faibles les modèles montrent une très bonne concordance avec les données expérimentales mesurées, les os étant dans leur position physiologique une fois l’équilibre mécanique atteint. Les résultats pour des angles de flexion plus importants restent satisfaisants et sont prometteurs, indiquant des pistes claires d’amélioration du modèle
Knee degradation and pain when developing osteoarthritis are strongly related not only to the pressure on the cartilage, but also to the knee stability and to the subsequent loadings on the ligaments. Here, we propose a mixed approach, both using medical imaging (MRI, EOS X-ray system) and force platform in conjunction with a finite element model.Two finite element model were created, focusing on the passive stability of the knee while modelling an experiment: the acquisition of the movement of climbing a step decomposed in 4 static EOS images. To do so, a geometric model of the subject’s knee have been fused on the bone physiological positions obtained by EOS imaging. The FEA was carried out according to the experimental boundary conditions so as to ensure the global knee mechanical equilibrium. This allow the model to be validated by comparing its numerical results with the EOS data. This model will reveal the roles of the ligaments during the knee flexion and give pressure maps on the cartilages.For low flexion angles, both models’ results concord well with the experimental data: the bones are in their physiological position once the mechanical equilibrium reached. For higher flexion angles the results are satisfying and promising, showing clear ways to improve the models
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Nguyên, Tri Long. "Inférence causale, modélisation prédictive et décision médicale". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT028.

Texto completo
Resumen
La prise de décision médicale se définit par le choix du traitement de la maladie, dans l’attente d’un résultat probable tentant de maximiser les bénéfices sur la santé du patient. Ce choix de traitement doit donc reposer sur les preuves scientifiques de son efficacité, ce qui renvoie à une problématique d’estimation de l’effet-traitement. Dans une première partie, nous présentons, proposons et discutons des méthodes d’inférence causale, permettant d’estimer cet effet-traitement par des approches expérimentales ou observationnelles. Toutefois, les preuves obtenues par ces méthodes fournissent une information sur l’effet-traitement uniquement à l’échelle de la population globale, et non à l’échelle de l’individu. Connaître le devenir probable du patient est essentiel pour adapter une décision clinique. Nous présentons donc, dans une deuxième partie, l’approche par modélisation prédictive, qui a permis une avancée en médecine personnalisée. Les modèles prédictifs fournissent au clinicien une information pronostique pour son patient, lui permettant ensuite le choix d’adapter le traitement. Cependant, cette approche a ses limites, puisque ce choix de traitement repose encore une fois sur des preuves établies en population globale. Dans une troisième partie, nous proposons donc une méthode originale d’estimation de l’effet-traitement individuel, en combinant inférence causale et modélisation prédictive. Dans le cas où un traitement est envisagé, notre approche permettra au clinicien de connaître et de comparer d’emblée le pronostic de son patient « avant traitement » et son pronostic « après traitement ». Huit articles étayent ces approches
Medical decision-making is defined by the choice of treatment of illness, which attempts to maximize the healthcare benefit, given a probable outcome. The choice of a treatment must be therefore based on a scientific evidence. It refers to a problem of estimating the treatment effect. In a first part, we present, discuss and propose causal inference methods for estimating the treatment effect using experimental or observational designs. However, the evidences provided by these approaches are established at the population level, not at the individual level. Foreknowing the patient’s probability of outcome is essential for adapting a clinical decision. In a second part, we present the approach of predictive modeling, which provided a leap forward in personalized medicine. Predictive models give the patient’s prognosis at baseline and then let the clinician decide on treatment. This approach is therefore limited, as the choice of treatment is still based on evidences stated at the overall population level. In a third part, we propose an original method for estimating the individual treatment effect, by combining causal inference and predictive modeling. Whether a treatment is foreseen, our approach allows the clinician to foreknow and compare both the patient’s prognosis without treatment and the patient’s prognosis with treatment. Within this thesis, we present a series of eight articles
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Gaddari, Abdelhamid. "Analysis and Prediction of Patient Pathways in the Context of Supplemental Health Insurance". Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10299.

Texto completo
Resumen
Ce travail de thèse s'inscrit dans la catégorie de la recherche en informatique de santé, en particulier l'analyse et la prédiction des parcours patients, qui sont les séquences des actes médicaux consommés par les patients au fil du temps. Notre objectif est de proposer une approche innovante pour l'exploitation des données de parcours de soins afin de réaliser non seulement une classification binaire, mais aussi multi-label. Nous concevons également une nouvelle approche de vectorisation et représentation sémantique exclusivement pour le domaine médical français, qui permettra d'exploiter un autre aspect des parcours patients afin d'améliorer la performance prédictive de notre approche proposée. Notre recherche s'inscrit dans le cadre des travaux de CEGEDIM ASSURANCES, une business unit du groupe CEGEDIM qui fournit des logiciels et des services pour les secteurs de l'assurance maladie complémentaire et de la gestion des risques en France. En analysant le parcours de soins et en utilisant l'approche que nous proposons, nous pouvons extraire des informations précieuses et identifier des patterns dans les parcours médicaux des patients afin de prédire des événements médicaux potentiels ou la consommation médicale à venir. Cela permettra aux assureurs de prévoir les futures demandes de soins de santé et donc de négocier de meilleurs tarifs avec les prestataires de soins de santé, ce qui permettra une planification financière précise, des modèles de tarification équitables et une réduction des coûts. En outre, ça permettra aux assureurs privés de concevoir des plans de santé personnalisés qui répondent aux besoins spécifiques des patients, en veillant à ce qu'ils reçoivent les soins adéquats au bon moment afin de prévenir la progression de la maladie. Enfin, l'offre de programmes de soins préventifs et de produits et services de santé personnalisés renforce les relations avec les clients, améliore leur satisfaction et réduit l'attrition. Dans ce travail, nous visons à développer une approche permettant d'analyser les parcours patients et de prédire les événements médicaux ou les traitements à venir, sur la base d'un large portefeuille de remboursements. Pour atteindre cet objectif, nous proposons tout d'abord un nouveau modèle basé sur les LSTM qui tient compte de la notion temporelle et qui permet de réaliser de la classification binaire et multi-label. Le modèle proposé est ensuite étendu par un autre aspect des parcours de soins, à savoir des informations supplémentaires provenant d'un clustering flou du même portefeuille. Nous démontrons que l'approche proposée est plus performante que les méthodes traditionnelles et d'apprentissage profond dans la prédiction médicale binaire et multi-label. Par la suite, nous améliorons la performance prédictive de l'approche proposée en exploitant un aspect supplémentaire des parcours patients, qui consiste en une description textuelle détaillée des traitements médicaux consommés. Ceci est réalisé grâce à la conception de F-BERTMed, une nouvelle approche de vectorisation et de représentation sémantique de phrases pour le domaine médical français. Celle-ci présente des avantages significatifs par rapport aux méthodes de l'état de l'art du traitement automatique du langage naturel (TAL). F-BERTMed est basé sur FlauBERT, dont le pré-entraînement utilisant la tâche MLM (Modélisation Masqué du Langage) a été étendu sur des textes médicaux français avant d'être fine-tuné sur les tâches NLI (Inférence du Langage Naturel) et STS (Similarité Sémantique Textuelle). Nous démontrons enfin que l'utilisation de F-BERTMed pour générer une nouvelle représentation des parcours patients améliore les performances prédictives de notre modèle proposé pour les tâches de classification binaire et multi-label
This thesis work falls into the category of healthcare informatics research, specifically the analysis and prediction of patients’ care pathways, which are the sequences of medical services consumed by patients over time. Our aim is to propose an innovative approach for the exploitation of patient care trajectory data in order to achieve not only binary, but also multi-label classification. We also design a new sentence embedding framework exclusively for the french medical domain, which will harness another view of the patients’ care pathways in order to enhance the predictive performance of our proposed approach. Our research is part of the work of CEGEDIM ASSURANCES, a business unit of the CEGEDIM Group that provides software and services for the french supplementary healthcare insurance and risk management sectors. By analyzing the patient care pathway and leveraging our proposed approach, we can extract valuable insights and identify patterns within the patients’ medical journeys in order to predict potential medical events or upcoming medical consumption. This will allow insurers to forecast future healthcare claims and therefore negotiate better rates with healthcare providers, allowing for accurate financial planning, fair pricing models and cost reductions. Furthermore, it enables private healthcare insurers to design personalized health plans that meet the specific needs of the patients, ensuring they receive the right care at the right time to prevent disease progression. Ultimately, offering preventive care programs and customized health products and services enhances client relationship, improving their satisfaction and reducing churn. In this work, we aim to develop an approach to analyze patient care pathways and predict medical events or upcoming treatments, based on a large portfolio of reimbursed medical records. To achieve this goal, we first propose a new time-aware long-short term memory based framework that can achieve both binary and multi-label classification. The proposed framework is then extended with another aspect of the patient healthcare trajectories, namely additional information from a fuzzy clustering of the same portfolio. We show that our proposed approach outperforms traditional and deep learning methods in medical binary and multi-label prediction. Subsequently, we enhance the predictive performance of our proposed approach by exploiting a supplementary view of the patient care pathways that consists of a detailed textual description of the consumed medical treatments. This is achieved through the design of F-BERTMed, a new sentence embedding framework for the french medical domain that presents significant advantages over the natural language processing (NLP) state-of-the-art methods. F-BERTMed is based on FlauBERT, whose pre-training using MLM (Masked Language Modeling) was extended on french medical texts before being fine-tuned on NLI (Natural Language Inference) and STS (Semantic Textual Similarity) tasks. We finally show that using F-BERTMed to generate a new representation of the patient care pathways enhances the performance of our proposed medical predictive framework on both binary and multi-label classification tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Cissoko, Mamadou Ben Hamidou. "Adaptive time-aware LSTM for predicting and interpreting ICU patient trajectories from irregular data". Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD012.

Texto completo
Resumen
En médecine prédictive personnalisée, modéliser avec précision la maladie et les processus de soins d'un patient est crucial en raison des dépendances temporelles à long terme inhérentes. Cependant, les dossiers de santé électroniques (DSE) se composent souvent de données épisodiques et irrégulières, issues des admissions hospitalières sporadiques, créant des schémas uniques pour chaque séjour hospitalier.Par conséquent, la construction d'un modèle prédictif personnalisé nécessite une considération attentive de ces facteurs pour capturer avec précision le parcours de santé du patient et aider à la prise de décision clinique.LSTM sont efficaces pour traiter les données séquentielles comme les DSE, mais ils présentent deux limitations majeures : l'incapacité à interpréter les résultats des prédictions et à prendre en compte des intervalles de temps irréguliers entre les événements consécutifs. Pour surmonter ces limitations, nous introduisons de nouveaux réseaux neuronaux à mémoire dynamique profonde appelés Multi-Way Adaptive et Adaptive Multi-Way Interpretable Time-Aware LSTM (MWTA-LSTM etAMITA), conçus pour les données séquentielles collectées de manière irrégulière.L'objectif principal des deux modèles est de tirer parti des dossiers médicaux pour mémoriser les trajectoires de maladie et les processus de soins, estimer les états de maladie actuels et prédire les risques futurs, offrant ainsi un haut niveau de précision et de pouvoir prédictif
In personalized predictive medicine, accurately modeling a patient's illness and care processes is crucial due to the inherent long-term temporal dependencies. However, Electronic Health Records (EHRs) often consist of episodic and irregularly timed data, stemming from sporadic hospital admissions, which create unique patterns for each hospital stay. Consequently, constructing a personalized predictive model necessitates careful consideration of these factors to accurately capture the patient's health journey and assist in clinical decision-making. LSTM networks are effective for handling sequential data like EHRs, but they face two significant limitations: the inability to interpret prediction results and to take into account irregular time intervals between consecutive events. To address limitations, we introduce novel deep dynamic memory neural networks called Multi-Way Adaptive and Adaptive Multi-Way Interpretable Time-Aware LSTM (MWTA-LSTM and AMITA) designed for irregularly collected sequential data. The primary objective of both models is to leverage medical records to memorize illness trajectories and care processes, estimate current illness states, and predict future risks, thereby providing a high level of precision and predictive power
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Lemitre, Eric. "Problèmes bioéthiques liés à la médecine prédictive". Paris 5, 1994. http://www.theses.fr/1994PA05P168.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Sun, Roger. "Utilisation de méthodes radiomiques pour la prédiction des réponses à l’immunothérapie et combinaisons de radioimmunothérapie chez des patients atteints de cancers Radiomics to Assess Tumor Infiltrating CD8 T-Cells and Response to Anti-PD-1/PD-L1 Immunotherapy in Cancer Patients: An Imaging Biomarker Multi-Cohort Study Imagerie médicale computationnelle (radiomique) et potentiel en immuno-oncologie Radiomics to Predict Outcomes and Abscopal Response of Cancer Patients Treated with Immunotherapy Combined with Radiotherapy Using a Validated Signature of CD8 Cells". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL023.

Texto completo
Resumen
Depuis l’arrivée des inhibiteurs de points de contrôle immunitaire, l’immunothérapie a profondément modifié la prise en charge de nombreux cancers, permettant parfois des réponses tumorales prolongées chez des patients atteints de cancers aux stades très avancés. Cependant, malgré des progrès thérapeutiques constants et des associations de traitements combinant par exemple radiothérapie et immunothérapie, la majorité des patients traités ne présentent pas de bénéfices à ces traitements. Ceci explique l’importance de la recherche de biomarqueurs innovants de réponse à l’immunothérapie.L’application de l’intelligence artificielle en imagerie est une discipline récente et en pleine expansion. L’analyse informatique de l’image, appelée également radiomique, permet d’extraire des images médicales de l’information non exploitable à l’œil nu, potentiellement représentative de l’architecture des tissus sous-jacents et de leur composition biologique et cellulaire, et ainsi de développer des biomarqueurs grâce à l’apprentissage automatique (« machine learning »). Cette approche permettrait d’évaluer de façon non invasive la maladie tumorale dans sa globalité, avec la possibilité d’être répétée facilement dans le temps pour appréhender les modifications tumorales survenant au cours de l’histoire de la maladie et de la séquence thérapeutique.Dans le cadre de cette thèse, nous avons évalué si une approche radiomique permettait d’évaluer l’infiltration tumorale lymphocytaire, et pouvait être associée à la réponse de patients traités par immunothérapie. Dans un deuxième temps, nous avons évalué si cette signature permettait d’évaluer la réponse clinique de patients traités par radiothérapie et immunothérapie, et dans quelle mesure elle pouvait être utilisée pour évaluer l’hétérogénéité spatiale tumorale. Les défis spécifiques posés par les données d’imagerie de haute dimension dans le développement d’outils prédictifs applicables en clinique sont discutés dans cette thèse
With the advent of immune checkpoint inhibitors, immunotherapy has profoundly changed the therapeutic strategy of many cancers. However, despite constant therapeutic progress and combinations of treatments such as radiotherapy and immunotherapy, the majority of patients treated do not benefit from these treatments. This explains the importance of research into innovative biomarkers of response to immunotherapyComputational medical imaging, known as radiomics, analyzes and translates medical images into quantitative data with the assumption that imaging reflects not only tissue architecture, but also cellular and molecular composition. This allows an in-depth characterization of tumors, with the advantage of being non-invasive allowing evaluation of tumor and its microenvironment, spatial heterogeneity characterization and longitudinal assessment of disease evolution.Here, we evaluated whether a radiomic approach could be used to assess tumor infiltrating lymphocytes and whether it could be associated with the response of patients treated with immunotherapy. In a second step, we evaluated the association of this radiomic signature with clinical response of patients treated with radiotherapy and immunotherapy, and we assessed whether it could be used to assess tumor spatial heterogeneity.The specific challenges raised by high-dimensional imaging data in the development of clinically applicable predictive tools are discussed in this thesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Rosenfeld, Frédérique. "Ethique en médecine du travail, aptitude médicale au travail et tests génétiques : réflexions sur l'introduction des tests prédictifs en médecine du travail". Paris 5, 2000. http://www.theses.fr/2000PA05N023.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Jeancolas, Laetitia. "Détection précoce de la maladie de Parkinson par l'analyse de la voix et corrélations avec la neuroimagerie". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL019.

Texto completo
Resumen
Les modifications de la voix, prenant la forme de dysarthrie hypokinétique, sont un des premiers symptômes à apparaître dans la maladie de Parkinson (MP). Un grand nombre de publications existent sur la détection de MP par l'analyse de la voix, mais peu se sont intéressées spécifiquement au stade débutant. D'autre part, à notre connaissance, aucune étude n'avait été publiée sur la détection de MP via des enregistrements issus du réseau téléphonique. L'objectif de cette thèse a été d'étudier les modifications de la voix aux stades débutant et préclinique de la maladie de Parkinson, et de développer des modèles de détection précoce automatique et de suivi de cette maladie. Le but à long terme étant de pouvoir construire un outil de diagnostic précoce et de suivi, peu couteux, utilisable par les médecins en cabinet, et de manière encore plus intéressante, à partir de n'importe quel téléphone. La première étape a été de constituer une grande base de données voix de plus de 200 locuteurs français, comprenant des sujets MP débutants, des sujets sains et des sujets atteints de trouble idiopathique du comportement en sommeil paradoxal (iRBD), pouvant être considérés comme au stade préclinique de la maladie de Parkinson. Les participants ont effectué différentes tâches vocales enregistrées avec un microphone professionnel et avec le microphone interne d'un ordinateur. De plus, une fois par mois, ils ont également effectué ces tâches en appelant un servant vocal interactif à partir de leur propre téléphone. Nous avons étudié les effets de la qualité des microphones, du type de tâches, du genre, et de la méthode de classification. Nous avons analysé ces enregistrements vocaux par le biais de trois méthodes d'analyses différentes, couvrant différentes échelles de temps. Nous avons commencé avec des coefficients cepstraux et des modèles de mélange gaussien (GMM). Ensuite nous avons adapté la méthodologie des x-vecteurs (qui n'avait jamais été utilisée pour la détection de MP), puis nous avons extrait des paramètres globaux que nous avons classés avec des machines à vecteurs de support (SVM). Nous avons constaté des perturbations vocales aux stades débutant et préclinique de MP dans plusieurs domaines phonétiques, tels que l'articulation, la prosodie, la fluence verbale et les capacités rythmiques. Avec les enregistrements du microphone professionnel, nous sommes parvenus à détecter les hommes MP débutants avec une précision (Acc) de 89%, à partir de 6min de lecture, monologue et répétitions rapides et lentes de syllabes. Concernant les femmes, nous avons atteint Acc=70% à partir d'1min de monologue. Avec les enregistrements téléphoniques, nous avons obtenu des performances de classification de 75% pour les hommes, à partir de 5min de répétitions rapides de syllabes, et de 67% pour les femmes, à partir de 5min de monologue. Ces résultats constituent un premier pas important vers un télédiagnostic précoce de la maladie de Parkinson. Enfin nous avons aussi étudié les corrélations avec les données de neuroimagerie. Nous avons pu prédire linéairement, de manière significative, les données de DatScan et d'imagerie par résonance magnétique (IRM) sensible à la neuromélanine, à partir de paramètres vocaux. Ce résultat est prometteur au vu d'une possible utilisation future de la voix pour le suivi de l'évolution des premiers stades de MP
Vocal impairments, known as hypokinetic dysarthria, are one of the first symptoms to appear in Parkinson's Disease (PD). A large number of articles exist on PD detection through voice analysis, but few have focused on the early stages of the disease. Furthermore, to our knowledge, no study had been published on remote PD detection via speech transmitted through the telephone channel. The aim of this PhD work was to study vocal changes in PD at early and preclinical stages, and develop automatic detection and monitoring models. The long-term purpose is to build a cheap early diagnosis and monitoring tool, that doctors could use at their office, and even more interestingly, that could be used remotely with any telephone. The first step was to build a large voice database with more than 200 French speakers, including early PD patients, healthy controls and idiopathic Rapid eye movement sleep Behavior Disorder (iRBD) subjects, who can be considered at PD preclinical stage. All these subjects performed different vocal tasks and were recorded with a professional microphone and with the internal microphone of a computer. Moreover, they called once a month an interactive voice server, with their own phone. We studied the effect of microphone quality, speech tasks, gender, and classification analysis methodologies. We analyzed the vocal recordings with three different analysis methods, covering different time scale analyses. We started with cepstral coefficients and Gaussian Mixture Models (GMM). Then we adapted x-vectors methodology (which never had been used in PD detection) and finally we extracted global features classified with Support Vector Machine (SVM). We detected vocal impairments at PD early and preclinical stages in articulation, prosody, speech flow and rhythmic abilities. With the professional microphone recordings, we obtained an accuracy (Acc) of 89% for male early PD detection, just using 6min of reading, free speech, fast and slow syllable repetitions. As for women, we reached Acc = 70% with 1min of free speech. With the telephone recordings, we achieved Acc = 75% for men, with 5min of rapid syllable repetitions, and 67% for women, with 5min of free speech. These results are an important first step towards early PD telediagnosis. We also studied correlations with neuroimaging, and we were able to linearly predict DatScan and Magnetic Resonance Imaging (MRI) neuromelanin sensitive data, from a set of vocal features, in a significant way. This latter result is promising regarding the possible future use of voice for early PD monitoring
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Boussaid, Haithem. "Efficient inference and learning in graphical models for multi-organ shape segmentation". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0002/document.

Texto completo
Resumen
Cette thèse explore l’utilisation des modèles de contours déformables pour la segmentation basée sur la forme des images médicales. Nous apportons des contributions sur deux fronts: dans le problème de l’apprentissage statistique, où le modèle est formé à partir d’un ensemble d’images annotées, et le problème de l’inférence, dont le but est de segmenter une image étant donnée un modèle. Nous démontrons le mérite de nos techniques sur une grande base d’images à rayons X, où nous obtenons des améliorations systématiques et des accélérations par rapport à la méthode de l’état de l’art. Concernant l’apprentissage, nous formulons la formation de la fonction de score des modèles de contours déformables en un problème de prédiction structurée à grande marge et construisons une fonction d’apprentissage qui vise à donner le plus haut score à la configuration vérité-terrain. Nous intégrons une fonction de perte adaptée à la prédiction structurée pour les modèles de contours déformables. En particulier, nous considérons l’apprentissage avec la mesure de performance consistant en la distance moyenne entre contours, comme une fonction de perte. L’utilisation de cette fonction de perte au cours de l’apprentissage revient à classer chaque contour candidat selon sa distance moyenne du contour vérité-terrain. Notre apprentissage des modèles de contours déformables en utilisant la prédiction structurée avec la fonction zéro-un de perte surpasse la méthode [Seghers et al. 2007] de référence sur la base d’images médicales considérée [Shiraishi et al. 2000, van Ginneken et al. 2006]. Nous démontrons que l’apprentissage avec la fonction de perte de distance moyenne entre contours améliore encore plus les résultats produits avec l’apprentissage utilisant la fonction zéro-un de perte et ce d’une quantité statistiquement significative.Concernant l’inférence, nous proposons des solveurs efficaces et adaptés aux problèmes combinatoires à variables spatiales discrétisées. Nos contributions sont triples: d’abord, nous considérons le problème d’inférence pour des modèles graphiques qui contiennent des boucles, ne faisant aucune hypothèse sur la topologie du graphe sous-jacent. Nous utilisons un algorithme de décomposition-coordination efficace pour résoudre le problème d’optimisation résultant: nous décomposons le graphe du modèle en un ensemble de sous-graphes en forme de chaines ouvertes. Nous employons la Méthode de direction alternée des multiplicateurs (ADMM) pour réparer les incohérences des solutions individuelles. Même si ADMM est une méthode d’inférence approximative, nous montrons empiriquement que notre implémentation fournit une solution exacte pour les exemples considérés. Deuxièmement, nous accélérons l’optimisation des modèles graphiques en forme de chaîne en utilisant l’algorithme de recherche hiérarchique A* [Felzenszwalb & Mcallester 2007] couplé avec les techniques d’élagage développés dans [Kokkinos 2011a]. Nous réalisons une accélération de 10 fois en moyenne par rapport à l’état de l’art qui est basé sur la programmation dynamique (DP) couplé avec les transformées de distances généralisées [Felzenszwalb & Huttenlocher 2004]. Troisièmement, nous intégrons A* dans le schéma d’ADMM pour garantir une optimisation efficace des sous-problèmes en forme de chaine. En outre, l’algorithme résultant est adapté pour résoudre les problèmes d’inférence augmentée par une fonction de perte qui se pose lors de l’apprentissage de prédiction des structure, et est donc utilisé lors de l’apprentissage et de l’inférence. [...]
This thesis explores the use of discriminatively trained deformable contour models (DCMs) for shape-based segmentation in medical images. We make contributions in two fronts: in the learning problem, where the model is trained from a set of annotated images, and in the inference problem, whose aim is to segment an image given a model. We demonstrate the merit of our techniques in a large X-Ray image segmentation benchmark, where we obtain systematic improvements in accuracy and speedups over the current state-of-the-art. For learning, we formulate training the DCM scoring function as large-margin structured prediction and construct a training objective that aims at giving the highest score to the ground-truth contour configuration. We incorporate a loss function adapted to DCM-based structured prediction. In particular, we consider training with the Mean Contour Distance (MCD) performance measure. Using this loss function during training amounts to scoring each candidate contour according to its Mean Contour Distance to the ground truth configuration. Training DCMs using structured prediction with the standard zero-one loss already outperforms the current state-of-the-art method [Seghers et al. 2007] on the considered medical benchmark [Shiraishi et al. 2000, van Ginneken et al. 2006]. We demonstrate that training with the MCD structured loss further improves over the generic zero-one loss results by a statistically significant amount. For inference, we propose efficient solvers adapted to combinatorial problems with discretized spatial variables. Our contributions are three-fold:first, we consider inference for loopy graphical models, making no assumption about the underlying graph topology. We use an efficient decomposition-coordination algorithm to solve the resulting optimization problem: we decompose the model’s graph into a set of open, chain-structured graphs. We employ the Alternating Direction Method of Multipliers (ADMM) to fix the potential inconsistencies of the individual solutions. Even-though ADMMis an approximate inference scheme, we show empirically that our implementation delivers the exact solution for the considered examples. Second,we accelerate optimization of chain-structured graphical models by using the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] couple dwith the pruning techniques developed in [Kokkinos 2011a]. We achieve a one order of magnitude speedup in average over the state-of-the-art technique based on Dynamic Programming (DP) coupled with Generalized DistanceTransforms (GDTs) [Felzenszwalb & Huttenlocher 2004]. Third, we incorporate the Hierarchical A∗ algorithm in the ADMM scheme to guarantee an efficient optimization of the underlying chain structured subproblems. The resulting algorithm is naturally adapted to solve the loss-augmented inference problem in structured prediction learning, and hence is used during training and inference. In Appendix A, we consider the case of 3D data and we develop an efficientmethod to find the mode of a 3D kernel density distribution. Our algorithm has guaranteed convergence to the global optimum, and scales logarithmically in the volume size by virtue of recursively subdividing the search space. We use this method to rapidly initialize 3D brain tumor segmentation where we demonstrate substantial acceleration with respect to a standard mean-shift implementation. In Appendix B, we describe in more details our extension of the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] to inference on chain-structured graphs
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ketata, Firas. "Risk prediction of endocrine diseases using data science and explainable artificial intelligence". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD022.

Texto completo
Resumen
L'objectif de cette thèse est de prédire le risque de maladies endocriniennes à l'aide de la science des données et de l'apprentissage automatique. L'idée est d'exploiter cette identification de risque pour aider les médecins à gérer les ressources financières et personnaliser le traitement des anomalies glucidiques chez les patients atteints de bêta-thalassémie majeure, ainsi que pour le dépistage du syndrome métabolique chez les adolescents. Une étude d'explicabilité des prédictions a été développée dans cette thèse pour évaluer la fiabilité de la prédiction des anomalies glucidiques et pour réduire les coûts financiers associés au dépistage du syndrome métabolique. Enfin, en réponse aux limites constatées de l'apprentissage automatique explicable, nous proposons une approche visant à améliorer et évaluer cette explicabilité, que nous testons sur différents jeux de données
This thesis aims to predict the risk of endocrine diseases using data science and machine learning. The aim is to leverage this risk identification to assist doctors in managing financial resources, personalizing the treatment of carbohydrate anomalies in patients with beta-thalassemia major, and screening for metabolic syndrome in adolescents. An explainability study of the predictions was developed in this thesis to evaluate the reliability of predicting glucose anomalies and to reduce the financial burden associated with screening for metabolic syndrome. Finally, in response to the observed limitations of explainable machine learning, we propose an approach to improve and evaluate this explainability, which we test on several datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ginhoux, Romuald. "Compensation des mouvements physiologiques en chirurgie robotisée par commande prédictive". Phd thesis, Université Louis Pasteur - Strasbourg I, 2003. http://tel.archives-ouvertes.fr/tel-00004633.

Texto completo
Resumen
Il existe aujourd'hui de nombreux systèmes robotiques commerciaux pour l'assistance au geste chirurgical. Les interventions d'orthopédie, de neurologie, de chirurgie laparoscopique ou cardiaque peuvent désormais être assistées par des systèmes mécaniques et informatiques. Depuis les premiers robots d'aide au geste chirurgical dérivés des robots industriels, aux robots actuels, l'objectif est de développer des systèmes d'aide aux gestes médicaux et chirurgicaux qui apportent des bénéfices importants au chirurgien et au patient. Dans ce contexte, ce travail de thèse s'intéresse plus particulièrement à l'aide au geste chirurgical en chirurgie mini-invasive robotisée. La problématique abordée est de permettre à un robot chirurgical de compenser mécaniquement les mouvements physiologiques de l'organe ou du tissu opéré, afin de proposer au chirurgien une zone de travail virtuellement immobile. En effet, ces mouvements sont des perturbations pour le chirurgien qui télé-manipule un robot, car il doit les compenser lui-même à chaque fois qu'une tâche précise est requise à la surface d'un organe ou d'un tissu, en les accompagnant manuellement quand c'est possible. Ceci limite aujourd'hui le développement, entre autres, des opérations à coeur battant. L'objectif est de proposer un système de commande qui permette au robot de se déplacer de façon synchronisée avec l'organe et d'accompagner ainsi son mouvement. Ce travail se restreint aux mouvements physiologiques dus à la respiration et aux battements du coeur. Ceux-ci sont périodiques avec une période qui ne varie pas pendant l'intervention. Le principe utilisé pour commander le déplacement du robot est celui de l'asservissement visuel direct rapide, où les images d'une caméra d'observation endoscopique sont traitées en temps réel, avec une cadence d'asservissement jusqu'à 500 images par seconde. Le robot est commandé à l'aide de lois de commande prédictives dans lesquelles des modèles internes simples du robot et des mouvements à filtrer sont inclus. Les développements présentés dans cette thèse sont illustrés par deux ensembles de résultats, pour la compensation des mouvements respiratoires du foie d'une part, et le suivi du coeur battant d'autre part. Des dispositifs expérimentaux ont été mis en place autour d'un robot médical Aesop (Computer Motion, USA) et un prototype de robot chirurgical de la société Sinters de Toulouse. Des expériences de laboratoire et des tests in vivo en conditions chirurgicales réelles ont été réalisés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

El, Hajj Karnib Amal. "Etude des événements iatrogènes médicamenteux hémorragiques au sein des deux services d'urgence : élaboration d'un outil de prédiction de risque". Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10118.

Texto completo
Resumen
L'objectif de cette étude est d'identifier prospectivement les EIMH chez les patients prenant des A VK et/ou des AlNS et admis aux urgences. Un questionnaire a été élaboré couvrant le traitement médicamenteux du patient, ses attitudes, ses connaissances, son observation, son éducation thérapeutique et les caractéristiques de la prise en charge extra-hospitalière du patient pour permettre d'identifier la cause de survenue de l'événement hémorragique. Le traitement statistique des questionnaires nous a permis d'identifier des facteurs de risque de survenue des EIMH sous AVK ou sous AlNS. Avant de les regrouper en un modèle complet, nous les avons séparé en deux dimensions : caractéristiques du patient où il semble impossible d'intervenir et dimension orgauisation des soins pour lequel il semble possible de proposer des stratégies préventives tels que les événements liés à des mauvaises pratiques professionnels. Un arbre de classification est construit par induction automatique et des règles décisionnelles du type "SI dose incorrecte ET un ou plusieurs facteurs de risque supplémentaire ALORS classification des patients à risque " ont été formalisées dans le but de recommander des préventions. 7 facteurs simples et facilement disponibles suffisent à prédire la survenue d'un EIMH sous AVK. Concernant l'apport à l'étude des événements iatrogènes médicamenteux hémorragiques sous AVK, notre étude a tout d'abord démontré qu'il était possible de modéliser le profil des événements iatrogènes médicamenteux hémorragiques et qu'une telle démarche semble applicable à l'étude des événements iatrogènes médicamenteux induits par d'autres médicaments
The objective ofthis study is to identifY prospectively the adverse drug events related to oral anticoagulation and non steroidal anti-infIammatory drugs in patients who visited the emergency department. A questionnaire was used to evaluate the medication treatment of patient, his knowledge, his attitude, his compliance, and bis therapeutic education, the description of hemorrhagic adverse drug events and the characteristic of outpatient to identify the reason ofhemorrhagic events. Many risk factors were identified and figurate in two dimensions : characteristics of patient witch we can 't move like age of patients and characteristics of care witch we cau suggest a preventive mies like the wrong professional practices. Classification and regression trees are built and clinical decision mies such as "IF inappropriate dose AND one or more risk factor, THEN classification of patient at low-risk, middle-risk or bigh-risk". 7 simply and easy factors to recuperate were enough for prediction of hemorrhage adverse drug events related to oral anticoagulation. This step seems applied in the study of adverse drug events related to other drugs and to evaluate many interven
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Charon, Clara. "Classification probabiliste pour la prédiction et l'explication d'événements de santé défavorables et évitables en EHPAD". Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS200.pdf.

Texto completo
Resumen
L'EHPAD, établissement d'hébergement pour personnes âgées dépendantes, constitue une option à laquelle a recours une population nombreuse et croissante, lorsque pour diverses raisons, et notamment de santé, il n'est plus possible de vivre à domicile.Avec le développement des nouvelles technologies informatiques dans le domaine de la santé, un nombre croissant d'établissements de santé sont équipés de systèmes d'information regroupant les données administratives et médicales des patients ainsi que des informations sur les soins qui leur sont prodigués.Parmi ces systèmes, les dossiers médicaux électroniques (DME) émergent comme des outils essentiels, offrant un accès rapide et aisé aux informations des patients dans le but d'améliorer la qualité et la sécurité des soins.Dans ce travail, nous utilisons les données anonymisées des DME de NETSoins, un logiciel largement utilisé dans les EHPAD en France, afin de proposer et d'analyser des classifieurs capables de prédire plusieurs événements de santé défavorables chez les personnes âgées qui sont potentiellement modifiables par des interventions de santé appropriées.Notre démarche se concentre notamment sur l'utilisation de méthodes capables de fournir des explications, notamment les modèles graphiques probabilistes tels que les réseaux bayésiens.Après un prétraitement complexe pour adapter des données d'une base événementielle en données utilisables par un apprentissage statistique, tout en conservant leur cohérence médicale, nous avons développé une méthodologie d'apprentissage mise en œuvre dans trois expériences de classification probabiliste utilisant des réseaux bayésiens distincts, ciblant différents événements : le risque de survenue de la première escarre, le risque d'hospitalisation en urgence à l'entrée du résident en EHPAD, et le risque de fracture dans les premiers mois d'hébergement.Pour chaque cible, nous avons comparé les performances de notre classifieur de réseaux bayésiens selon divers critères avec d'autres méthodes de machine learning ainsi qu'avec les pratiques actuellement utilisées en EHPAD pour prédire ces risques. Nous avons aussi confronté les résultats des réseaux bayésiens à l'expertise clinique.Cette étude démontre la possibilité de prédire ces événements à partir des données déjà collectées en routine par les soignants, ouvrant ainsi la voie à de nouveaux outils de prédiction intégrables directement dans le logiciel déjà utilisé par ces professionnels
Nursing homes, which provide housing for dependent elderly people,are an option used by a large and growing population when, for a variety of reasons, including health, it is no longer possible for them to live at home.With the development of new information technologies in the health sector, an increasing number of health care facilities are equipped with information systems that group together administrative and medical data of patients as well as information on the care they receive. Among these systems, electronic health records (EHRs) have emerged as essential tools, providing quick and easy access to patient information in order to improve the quality and safety of care.We use the anonymized data of the EHRs from NETSoins, a software widely used in nursing homes in France, to propose and analyze classifiers capable of predicting several adverse health events in the elderly that are potentially modifiable by appropriate health interventions. Our approach focuses in particular on the use of methods that can provide explanations, such as probabilistic graphical models, including Bayesian networks.After a complex preprocessing step to adapt event-based data into data suitable for statistical learning while preserving their medical coherence, we have developed a learning method applied in three probabilistic classification experiments using Bayesian networks, targeting different events: the risk of occurrence of the first pressure ulcer, the risk of emergency hospitalization upon the resident's entry into the nursing home, and the risk of fracture in the first months of housing.For each target, we have compared the performance of our Bayesian network classifier according to various criteria with other machine learning methods as well as with the practices currently used in nursing homes to predict these risks. We have also compared the results of the Bayesian networks with clinical expertise.This study demonstrates the possibility of predicting these events from the data already collected in routine by caregivers, thus paving the way for new predictive tools that can be integrated directly into the software already used by these professionals
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Wandeto, John Mwangi. "Self-organizing map quantization error approach for detecting temporal variations in image sets". Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD025/document.

Texto completo
Resumen
Une nouvelle approche du traitement de l'image, appelée SOM-QE, qui exploite quantization error (QE) des self-organizing maps (SOM) est proposée dans cette thèse. Les SOM produisent des représentations discrètes de faible dimension des données d'entrée de haute dimension. QE est déterminée à partir des résultats du processus d'apprentissage non supervisé du SOM et des données d'entrée. SOM-QE d'une série chronologique d'images peut être utilisé comme indicateur de changements dans la série chronologique. Pour configurer SOM, on détermine la taille de la carte, la distance du voisinage, le rythme d'apprentissage et le nombre d'itérations dans le processus d'apprentissage. La combinaison de ces paramètres, qui donne la valeur la plus faible de QE, est considérée comme le jeu de paramètres optimal et est utilisée pour transformer l'ensemble de données. C'est l'utilisation de l'assouplissement quantitatif. La nouveauté de la technique SOM-QE est quadruple : d'abord dans l'usage. SOM-QE utilise un SOM pour déterminer la QE de différentes images - typiquement, dans un ensemble de données de séries temporelles - contrairement à l'utilisation traditionnelle où différents SOMs sont appliqués sur un ensemble de données. Deuxièmement, la valeur SOM-QE est introduite pour mesurer l'uniformité de l'image. Troisièmement, la valeur SOM-QE devient une étiquette spéciale et unique pour l'image dans l'ensemble de données et quatrièmement, cette étiquette est utilisée pour suivre les changements qui se produisent dans les images suivantes de la même scène. Ainsi, SOM-QE fournit une mesure des variations à l'intérieur de l'image à une instance dans le temps, et lorsqu'il est comparé aux valeurs des images subséquentes de la même scène, il révèle une visualisation transitoire des changements dans la scène à l'étude. Dans cette recherche, l'approche a été appliquée à l'imagerie artificielle, médicale et géographique pour démontrer sa performance. Les scientifiques et les ingénieurs s'intéressent aux changements qui se produisent dans les scènes géographiques d'intérêt, comme la construction de nouveaux bâtiments dans une ville ou le recul des lésions dans les images médicales. La technique SOM-QE offre un nouveau moyen de détection automatique de la croissance dans les espaces urbains ou de la progression des maladies, fournissant des informations opportunes pour une planification ou un traitement approprié. Dans ce travail, il est démontré que SOM-QE peut capturer de très petits changements dans les images. Les résultats confirment également qu'il est rapide et moins coûteux de faire la distinction entre le contenu modifié et le contenu inchangé dans les grands ensembles de données d'images. La corrélation de Pearson a confirmé qu'il y avait des corrélations statistiquement significatives entre les valeurs SOM-QE et les données réelles de vérité de terrain. Sur le plan de l'évaluation, cette technique a donné de meilleurs résultats que les autres approches existantes. Ce travail est important car il introduit une nouvelle façon d'envisager la détection rapide et automatique des changements, même lorsqu'il s'agit de petits changements locaux dans les images. Il introduit également une nouvelle méthode de détermination de QE, et les données qu'il génère peuvent être utilisées pour prédire les changements dans un ensemble de données de séries chronologiques
A new approach for image processing, dubbed SOM-QE, that exploits the quantization error (QE) from self-organizing maps (SOM) is proposed in this thesis. SOM produce low-dimensional discrete representations of high-dimensional input data. QE is determined from the results of the unsupervised learning process of SOM and the input data. SOM-QE from a time-series of images can be used as an indicator of changes in the time series. To set-up SOM, a map size, the neighbourhood distance, the learning rate and the number of iterations in the learning process are determined. The combination of these parameters that gives the lowest value of QE, is taken to be the optimal parameter set and it is used to transform the dataset. This has been the use of QE. The novelty in SOM-QE technique is fourfold: first, in the usage. SOM-QE employs a SOM to determine QE for different images - typically, in a time series dataset - unlike the traditional usage where different SOMs are applied on one dataset. Secondly, the SOM-QE value is introduced as a measure of uniformity within the image. Thirdly, the SOM-QE value becomes a special, unique label for the image within the dataset and fourthly, this label is used to track changes that occur in subsequent images of the same scene. Thus, SOM-QE provides a measure of variations within the image at an instance in time, and when compared with the values from subsequent images of the same scene, it reveals a transient visualization of changes in the scene of study. In this research the approach was applied to artificial, medical and geographic imagery to demonstrate its performance. Changes that occur in geographic scenes of interest, such as new buildings being put up in a city or lesions receding in medical images are of interest to scientists and engineers. The SOM-QE technique provides a new way for automatic detection of growth in urban spaces or the progressions of diseases, giving timely information for appropriate planning or treatment. In this work, it is demonstrated that SOM-QE can capture very small changes in images. Results also confirm it to be fast and less computationally expensive in discriminating between changed and unchanged contents in large image datasets. Pearson's correlation confirmed that there was statistically significant correlations between SOM-QE values and the actual ground truth data. On evaluation, this technique performed better compared to other existing approaches. This work is important as it introduces a new way of looking at fast, automatic change detection even when dealing with small local changes within images. It also introduces a new method of determining QE, and the data it generates can be used to predict changes in a time series dataset
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Hostettler, Alexandre. "Modélisation et simulation patient-dépendante, préopératoire, prédictive, et temps-réel du mouvement des organes de l'abdomen induit par la respiration libre". Strasbourg 1, 2008. http://www.theses.fr/2008STR13218.

Texto completo
Resumen
L'objectif de cette thèse est de modéliser et de simuler en temps réel le mouvement des viscères de l'abdomen durant la respiration libre à partir d'une acquisition 3D TDM. En effet, de nombreuses applications médicales (radiothérapie) ne compensent pas la variation de position des organes et aboutissent à des traitements potentiellement inadaptés. Nous utilisons un champ de déplacement calculé à partir du suivi optique de la position de la peau, et d'une modélisation patient-de��pendante du diaphragme à partir d'acquisitions en position inspirée et expirée. Les viscères sont assimilés à une entité unique et incompressible glissant le long du péritoine et de la plèvre. L'originalité de la méthode est de prendre en compte le déplacement cranio-caudal des viscères, mais également les déplacements latéraux et antéropostérieurs causés par l'asymétrie du mouvement. La position des viscères est alors calculée à 50 Hz, avec une précision évaluée sur deux patients comprise entre 2 et 3 mm
The aim of this PhD thesis is to model and simulate in real-time the viscera motion during free breathing using a 3D CT acquisition. Indeed, many medical applications (radiotherapy) do not compensate variations in organ position and lead potentially to ill adapted treatments. We use a deformation field computed from the knowledge of the skin position (optical tracking) and a patient specific modelling of the diaphragm (from 3D CT acquisitions in inhale and exhale position). Viscera are assimilated to a single incompressible entity sliding along the peritonea and the pleurae. The originality of the method is to take the cranio-caudal viscera motion into account, as well as the anteroposterior and lateral motion due to the asymmetry of the motion. The new viscera position is computed at 50 Hz, and its accuracy has been evaluated on two patients within 2 and 3 mm
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Sauvée, Mickaël. "Contribution à l'aide aux gestes pour la chirurgie cardiaque à coeur battant : guidage échographique par asservissement prédictif non linéaire". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00129494.

Texto completo
Resumen
Ces travaux de thèse s'inscrivent dans le cadre de l'assistance robotisée pour la chirurgie cardiaque à coeur battant. Une première contribution est la synthèse d'une nouvelle architecture d'asservissement visuel dans l'image en utilisant une commande prédictive non linéaire. Cette structure permet de respecter les contraintes du système en gérant simultanément la planification de trajectoire et le contrôle. La loi de commande a été validée sur une plate-forme robotique en vision standard. La structure a également été adaptée pour la vision échographique. Elle permet ainsi de contrôler les déplacements d'un outil en imposant que celui-ci respecte la contrainte d'intersection avec le plan échographique. Des expérimentations ont également permis de montrer l'efficacité de cette loi de commande. Cette seconde contribution s'intègre dans le cadre de l'assistance à la chirurgie cardiaque endovasculaire, et plus particulièrement la réparation de valve mitrale. Dans ce contexte, la localisation de la valve mitrale en temps réel est obtenue en utilisant une méthode qui repose sur la détection de la jonction entre la paroi et la valve et également d'un modèle à 2 ddl de la valve. L'algorithme proposé a été validé sur une séquence in vivo. Enfin, une estimation in vivo des déplacements 3D du coeur à partir des images endoscopiques a été proposée et représente une première étape d'un projet de compensation automatique des mouvements du coeur pour la chirurgie coronarienne.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Cailhol, Lionel. "Facteurs de soins prédictifs du devenir des patients avec trouble de personnalité borderline". Paris 6, 2011. http://www.theses.fr/2011PA066245.

Texto completo
Resumen
Cette thèse porte un regard sur les possibles améliorations des soins à offrir aux patients ayant un Trouble de Personnalité Borderline (TPB). Ceux-ci se caractérisent essentiellement par une instabilité (émotions, relations, identité, affects) et une impulsivité. Le trouble a une forte prévalence (au moins supérieure à 1% en population générale) et sévérité (taux de suicide de 4 à 10%). Les recommandations de prise en charge actuelles mettent la psychothérapie de longue durée au premier rang des traitements, proposant les psychotropes pour des symptômes cibles. Les études observationnelles soulignent quant à elles que la consommation de soins dans cette population est importante, décroissante avec l’évolution et intermittente. Plusieurs facteurs seraient associés à une consommation accrue, tels que les comportements auto-agressifs, les antécédents psycho-traumatiques et le retard intellectuel (QI). Ces données offrent en sus quelques arguments en faveur d’un problème d’accès aux psychothérapies recommandées. Ce point est à rapprocher du problème d’acceptabilité de ces mêmes psychothérapies, illustré par les taux de perdus de vue des études cliniques portant sur ces traitements. Sur la base de ces constats, notre objectif principal a été de comprendre la place de la psychothérapie de long cours et de ses alternatives dans la prise en charge du TPB. Ainsi avons-nous procédé à deux axes de recherche. Dans le premier, de nature essentiellement épidémiologique, nous avons mis en évidence l’inadéquation entre les soins reçus et ceux préconisés par les recommandations internationales. En particulier, l’accès à la psychothérapie de long cours serait limité à moins de la moitié
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Tran, Ngoc Hoang. "Extension et validation de l’outil Geant4 dans le cadre du projet Geant4-DNA pour la prédiction des dommages biologiques radio-induits à l’échelle cellulaire". Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14575/document.

Texto completo
Resumen
L’étude des effets biologiques des radiations ionisantes à l’échelle de la cellule individuelle et en particulier sur l’ADN du noyau cellulaire reste un enjeu majeur de la radiobiologie actuelle. L’objectif principal des recherches actuelles est de déterminer quels peuvent être les effets biologiques délétères des radiations ionisantes pour la santé humaine, en particulier dans le domaine des faibles doses de radiation. Afin d’étudier précisément la réponse des cellules aux radiations ionisantes, de nombreuses études expérimentales des effets des radiations ionisantes sur les cellules, tissus et organismes biologiques aux basses énergies ont accumulées de grandes quantités de données de qualité sur la réponse de cellules aux radiations. Il existe également de nombreux modèles semi-empiriques de survie cellulaire qui incorporent des paramètres biologiques et physiques. En parallèle, des stochastiques basées sur la technique « Monte Carlo » pour modéliser les processus élémentaires en physique, chimie et biologie sont en cours de développement. L’outil Geant4 développé dès 1993 (CERN et KEK) en utilisant des techniques informatiques de dernière génération (C++) permet à l’utilisateur de construire une simulation complète grâce à de nombreuses fonctionnalités : formes géométriques, matériaux, particules élémentaires, processus physiques électromagnétiques et hadroniques, visualisation, analyse de données, interactivité et extensibilité… Cependant, Geant4 présente un certain nombre de limitations pour la simulation des effets biologiques des radiations ionisants à l’échelle subcellulaire : les modèles standard ne prennent pas compte le technique « pas-à-pas », les modèles physique sont limités à basse énergie, il n’a pas des descriptions des cibles moléculaires et Geant4 n’est pas capable de simuler les étapes physico-chimique et chimique nécessaire pour déterminer l’oxydation des bases et les éventuelles cassures d’ADN.Dans ce contexte, le projet Geant4-DNA propose d’étendre Geant4 afin de modéliser les interactions des radiations ionisantes à l’échelle de la cellule biologique et la molécule d’ADN et aux basses énergies. Au cours du travail de thèse, j’ai tout d’abord validé les modèles physiques en comparant les résultats de simulation à une grande collection de données expérimentales disponibles dans la littérature. L’accord entre les valeurs de sections efficaces totales et différentielles et les mesures expérimentales a été quantifié à l’aide du test statistique Kolmogorov-Smirnov. J’ai par la suite amélioré les classes des processus de diffusion élastique des électrons et travailler sur les calculs théoriques du modèle de diffusion élastique des protons et des alphas dans l’eau liquide auparavant inexistant dans Geant4-DNA. J’ai effectué une combinaison des processus multi-échelles des modèles de Geant4-DNA (à l’échelle microscopique) avec les modèles électromagnétiques disponibles dans l’outil Geant4 (les processus d’interaction des photons et autres modèles de Geant4). A la fin de mon travail, j’ai participé à l’estimation des performances de Geant4-DNA pour la dosimétrie dans des géométries de petite taille (jusqu’à l’échelle du nanomètre) dans l’eau liquide à l’aide des distributions « Dose Point Kernel ». J’ai ensuite calculé les fréquences de dépôts d’énergie dans des petits cylindres de dimensions nanométriques correspondant à des cibles biologiques et des modèles de noyau cellulaire humain simplifié pour l’estimation des cassures directes simple et double. Mon travail de thèse a fournit les premiers résultats de Geant4-DNA pour la prédiction de cassure de brin d’ADN combinant physique et géométries à l’échelle de l’ADN. Enfin, nous avons développé des classes de processus et modèles basés sur l’approche CTMC-COB (Classical Trajetory Monte Carlo avec critère d’Over Barrier) spécifique aux bases de la molécule d’ADN et à l’eau liquide
A large experimental and modeling activity is currently taking place, aimed at better understanding the biological effects of ionizing radiation at the molecular scales. Considerable amounts of experimental data have been accumulated over the past decades in order to measure quantities such as macroscopic cellular survival curves and DNA strand damages after irradiation. In parallel, computer codes have been proposed to use a stochastic approach based on Monte Carlo technique to model physical interaction in the irradiated medium. The Geant4 toolkit uses the object-oriented technology (C++) to describing particle-matter interactions, such as bio-medical physics and space physics, from sub-micrometer cells up to planetary scales. Geant4-DNA project is included in the Geant4 toolkit and benefits from the easy accessibility of the Geant4 code for the development of a computing platform allowing estimation effects of ionizing radiations. In my thesis, firstly, I have contributed in the project the validation of various models with the experimental data collections extracted from the recent literature. A good agreement between total and differential cross section values corresponding to each available Geant4-DNA model and experimental data is validated by Kolmogorov-Smirnov testing. Secondly, I have improved elastic scattering process and working on the calculation of the DDCS for proton elastic scattering in water in the Geant4-DNA. In addition, I have combined Geant4 electromagnetic processes with the Geant4-DNA. This combination brought additional Geant4 simulation capabilities in complement of the possibility to combine Geant4-DNA models with other Geant4 electromagnetic models at different sizes and energy scales in a single simulation application. Finally, we have presented the usage of Geant4-DNA physics processes in nanometer-size targets fully implemented in a single Geant4 application. The frequencies of the deposited energy and number of direct DNA single strand break and double strand break in the simplified nucleus model are compared with other codes results and with a collection of experimental data on direct DNA dimensions on plasmid DNA. Furthermore I have implemented in Geant4-DNA theoretical cross sections of physics processes based on a Classical Trajectory Monte Carlo (CTMC) approach for modeling the detailed transport of protons and neutral hydrogen atoms in liquid water and in DNA nucleobases
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Haddadi, Ahmed Zine El Abidine. "Construction d’un score prédictif du risque nosocomial pour des patients de réanimation". Thesis, Lille 2, 2013. http://www.theses.fr/2013LIL2S039/document.

Texto completo
Resumen
Les infections nosocomiales demeurent un véritable défi de santé publique en dépit des progrès techniques considérables enregistrés. Inhérentes à la prise en charge de soins, se sont les services de réanimation qui comptabilisent les plus fort taux de prévalence. En effet, quelle que soit leur orientation (chirurgicale, médicale ou mixte), ces services, ont pour mission la prise en charge des patients dont le processus vital est menacé par la survenue brutale d’une ou de plusieurs défaillances organiques nécessitant un arsenal diagnostic et/ou thérapeutique souvent invasif.Parmi les conséquences induites par ces infections ; i) l’allongement de la durée de séjour, ii) le surcoût, iii) une augmentation de la mortalité, et iv) la résistance bactérienne.Pouvoir anticiper en amont et en aval cette problématique aux motifs complexes et aux conséquences parfois fatales serait un atout majeur au profit des patients et un outil stratégique pour les équipes soignantes.Organisée autour de trois étapes charnières, la présente étude s’est d’abord attelée à la phasede l’identification des facteurs de risque de l’évènement nosocomial et de mortalité au service de réanimation ou s’est passé l’étude –prise en compte du case-mix du service de réanimation CHU la TIMONE-. Réalisée grâce à deux méthodes statistiques différentes à savoir la régression logistique et la méthode des risques compétitifs. L’étape suivante a consisté dans un premier temps à comparer les capacités prédictives des scores APACHE II, LOD, SOFA et SAPS II chez ces patients -hospitalisés en réanimation-ayant développé un épisode nosocomial. Dans un second temps de déterminer si la variation des scores LOD, SOFA, APACHEII et SAPS II est un facteur pronostique du risque nosocomial. Les résultats obtenus révèlent que la meilleure performance prédictive est objectivée au profit du SOFA et que seule la variation de ce même score entre le premier jour d’hospitalisation et celui du diagnostic de l’infection nosocomiale mesurée grâce à l’AUC est prédictive du risque nosocomial.À l’issue de ces étapes et au moyen des résultats obtenus une construction d’un score prédictif est réalisée grâce à la méthode de régression logistique. L’objectif de ce score est d’éclairer voire d’influencer le prescripteur lors de ses prises de décisions ou d’éventuelle démarche d’ajustement de ses conduites thérapeutiques
Limiting nosocomial infections is still a health challenge although the technical development has improved. They are inherent in medical care and the health care services have the highest prevalence. Indeed, whatever the service (surgical, medical or both), the patients life-giving process is under attack because of the emergence of one or several organ faillures;This generates a diagnostic and therapeutic arsenal which is often invasive.Among the consequences resulting from these infections we will take into account :i) a longer stay in hospitalii) an extra costiii) a higher mortality rateiv) bacterial resistance .If we could anticipate upstream and downstream this issue with complex origins and sometimes fatal consequences, it would be a major asset for patients and a strategic tool for medical teams.The present study is organized in three parts, and first focusses onto the identification of the nosocomial event and death risk factors in intensive care where the study took place. We took into account the the case-mix of the intensive care unit in the TIMONE University Hospital. The study was made with two different statistic methods that is logistic regression and the competitive risks method.The next step first consisted in comparing the predictive capacities of the APACHE II, LOD, SOFA and SAPS II scores in nosocomial patients hospitalized in intensive care . Then it tried to determine if the variation of the LOD, SOFA, APACHEII and SAPS II scores was a prognostic risk factor.Results showed that the best predictive performance was objectively measured by the SOFA and that only the variation of this score between the first day in hospital and the day of the diagnosis of a nosocomial infection, calculated thanks to the AUC, could be predictive of a nosocomal risk. After these steps, and with the results calculated , the construction of a predictive score could be established thanks to the logistic regression method. The objective of this score is to help, or even influence the prescribing doctors when they take decisions or when they try to adjust their therapeutic practices
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Chabert, Isabelle. "Développement et validation d’un modèle de sources virtuelles adapté à la prédiction d’images EPID pour le contrôle qualité des traitements de RCMI". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112016/document.

Texto completo
Resumen
L’essor des nouvelles techniques de traitement en radiothérapie externe a rendu nécessaire la mise en place de nouveaux contrôles qualité (CQ). Il est en effet capital de s’assurer que la dose délivrée au patient est bien conforme à celle qui lui a été prescrite. Les détecteurs EPID, initialement utilisés pour contrôler l’exactitude du positionnement du patient, sont de plus en plus employés pour vérifier la conformité du traitement. L’image qu’ils enregistrent au cours d’une irradiation peut par exemple être comparée à une image de référence, qui correspond à ce qui aurait été mesuré si le traitement s’était déroulé dans les conditions de sa planification. Le succès de ce CQ repose (1) sur la précision avec laquelle on peut prédire l’image EPID (ou portale) de référence et (2) sur les performances de l’outil de comparaison d’image utilisé. Nous avons étudié au cours de cette thèse ces deux points clés. Nous nous sommes tout d’abord tournés vers une méthode de prédiction d’images EPID haute résolution basée sur le couplage de simulations Monte-Carlo (MC) et de la technique de débruitage DGPLM. Pour la mettre en œuvre, nous avons modélisé un accélérateur linéaire d’électrons à usage médical (linac) dans le code MC PENELOPE et optimisé les paramètres de sa source d’électrons primaires pour des calculs de dose dans l’eau. L’analyse d’un fichier d’espace des phases (PSF) de 71 Go stocké sous le cône égalisateur nous a ensuite permis de développer un modèle de sources virtuelles (MSV) représenté par des histogrammes corrélés (environ 200 Mo). Ce nouveau MSV, plus compact que le PSF, est tout aussi précis pour les calculs de dose dans l’eau si son maillage est déterminé selon une méthode adaptative. La modélisation du détecteur EPID dans PENELOPE suggère que les hypothèses faites sur les propriétés de la tâche focale du linac sont trop simplistes et doivent être reconsidérées. L’évaluation du MSV pour la prédiction d’images EPID haute résolution a quant à elle conduit à d’excellents résultats. Une fois la chaine de prédiction de l’image portale de référence validée, nous l’avons utilisée pour détecter des irrégularités dans les traitements de RCMI. Dans une étude préliminaire, nous avons volontairement introduit des erreurs de traitement dans le calcul d’images EPID (dérive du faisceau d’irradiation, modification de la morphologie ou de la position du patient). Le γ-index traditionnellement utilisé en routine s’est avéré moins performant que le χ-index pour les détecter. Une étude plus approfondie aura pour objet de déterminer des seuils de détection d’erreurs en fonction de leur nature et d’éprouver les performances d’autres tests
Advanced techniques used in radiotherapy for cancer treatment, such as Intensity-Modulated Radiation Therapy (IMRT), require extensive verification procedures to ensure the correct dose delivery. Electronic Portal Imaging Devices (EPIDs) are widely used for quality assurance in radiotherapy, and also for dosimetric verifications. For this latter application, the images obtained during the treatment session can be compared to a pre-calculated reference image in order to highlight dose delivery errors. The quality control performance depends (1) on the accuracy of the pre-calculated reference image (2) on the ability of the tool used to compare images to detect errors. These two key points were studied during this PhD work. We chose to use a Monte Carlo (MC)-based method developed in the laboratory and based on the DPGLM (Dirichlet process generalized linear model) denoising technique to predict high-resolution reference images. A model of the studied linear accelerator (linac Synergy, Elekta, Crawley, UK) was first developed using the PENELOPE MC codes, and then commissioned using measurements acquired in the Hôpital Nord of Marseille. A 71 Go phase space file (PSF) stored under the flattening filter was then analyzed to build a new kind of virtual source model based on correlated histograms (200 Mo). This new and compact VSM is as much accurate as the PSF to calculate dose distributions in water if histogram sampling is based on adaptive method. The associated EPID modelling in PENELOPE suggests that hypothesis about linac primary source were too simple and should be reconsidered. The use of the VSM to predict high-resolution portal images however led to excellent results. The VSM associated to the linac and EPID MC models were used to detect errors in IMRT treatment plans. A preliminary study was conducted introducing on purpose treatment errors in portal image calculations (primary source parameters, phantom position and morphology changes). The γ-index commonly used in clinical routine appears to be less effective than the χ-index. A future in-depth study will be dedicated to determine error detection threshold according to their nature and to evaluate other comparison test robustness. The developed portal image prediction method associated to robust analysis tools will then constitute an adapted way to assure treatment quality control
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Fongang, Léon. "Aspects prédictifs des interactions tissus-implant par analyses multi-échelles en imagerie : mise en évidence intraleucocytaires de microtextures décrivant un champ aléatoire markovien". Nice, 1993. http://www.theses.fr/1993NICE4707.

Texto completo
Resumen
Par des opérateurs d'analyses d'images et de traitements du signal adaptes aux spécificités biologiques, on quantifie les textures cellulaires de tissus osseux et hématologiques avec : 1) mise en évidence par un modèle mathématique d'une mémoire cellulaire dérivant d'un champ aléatoire markovien, fonctionnant sur les variations d'homogénéité et de contraintes de statistiques du second ordre, associée aux états métaboliques caractérisant la vie cellulaire dans certaines bandes énergétiques. 2) classification morphologique et texturale des cellules suivant un concept de champ de rayons-vecteurs (crv) ou les aspects microscopiques et macroscopiques intra-cellulaires interviennent dans la détermination du contour de ces cellules. Une procédure d'indexage des rayons-vecteurs (rv), ou les algorithmes classiques de rotations et de translations sont exclus, permet une réorientation spatiale fictive des objets à comparer. La mise en correspondance des rv donne un signal de forme (sf) conduisant à une quantification du degré de ressemblance entre les objets examines. 3) Un nouveau concept quantifiant l'homogénéité des textures de zones peri-implantologiques par analyses morphologiques multi-échelles permet des évaluations prédictives de l'évolution de ces tissus lors de régénérations normales ou de leurs restructurations plus ou moins altérées
Human bone and hematologic celle textures are evaluated by the way of fittes biomedical image and signal processsing operators. In the present work, we report a set of algorithmic procedures leading to : 1) a mathematical modeling « cell memory ». That model i related to homogeneity variations associated to the metabolic states which characterize the cell life inside « energetic bands ». The second order statistical means of blood cell microscopic textures agree with those resulting form the markovian random field. 2) A morphological and textural cell classification based on the concept of « field ray-vectorrs » (CRV). Inside that CRV, the micro- and macroscopic aspects of the cell specificities are taken into account fot the contour determination. An indexing method of « Ray Vectors » (RV) leads to a « fictive » (not physically) reorientation of objects, the specific algorithms of rotations and tranlations being excluded. Matched RV give a « shape-signal » (SF) in relation to each object and leads to quantify the degree of similarity between objects. 3) A new concept found upon the morphological multi-scale analysis allowing the quantification of periimplant texture homogeneity and, the predictive evaluations of bone tissue evolutions during the regeneration r after normal or abnormal restructuration which can be more or less altered
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Wang, Yuan. "Heart rate variability and respiration signals as late onset sepsis diagnostic tools in neonatal intensive care units". Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S106/document.

Texto completo
Resumen
Le sepsis tardif, défini comme une infection systémique chez les nouveaux nés âgés de plus de 3 jours, survient chez environ 7% à 10% de tous les nouveau-nés et chez plus de 25% des nouveau-nés de très faible poids de naissance qui sont hospitalisés dans les unités de soins intensifs néonatals (USIN). Les apnées et bradycardies (AB) spontanées récurrentes et graves sont parmi les principaux indicateurs précoces cliniques de l'infection systémique chez les prématurés. L'objectif de cette thèse est de déterminer si la variabilité du rythme cardiaque (VRC), la respiration et l'analyse de leurs relations aident au diagnostic de l'infection chez les nouveaux nés prématurés par des moyens non invasifs en USIN. Par conséquent, on a effectué l'analyse Mono-Voie (MV) et Bi-Voies (BV) sur deux groupes sélectionnés de nouveau-nés prématurés: sepsis (S) vs. non-sepsis (NS). (1) Tout d'abord, on a étudié la série RR non seulement par des méthodes de distribution (moy, varn, skew, kurt, med, SpAs), par les méthodes linéaire: le domaine temporel (SD, RMSSD) et dans le domaine fréquentiel (p_VLF, p_LF, p_HF), mais aussi par les méthodes non–linéaires: la théorie du chaos (alphas, alphaF) et la théorie de l'information (AppEn, SamEn, PermEn, Regul). Pour chaque méthode, nous étudions trois tailles de fenêtre 1024/2048/4096, puis nous comparons ces méthodes afin de trouver les meilleures façons de distinguer S de NS. Les résultats montrent que les indices alphaS, alphaF et SamEn sont les paramètres optimaux pour séparer les deux populations. (2) Ensuite, la question du couplage fonctionnel entre la VRC et la respiration nasale est adressée. Des relations linéaires et non-linéaires ont été explorées. Les indices linéaires sont la corrélation (r²), l'indice de la fonction de cohérence (Cohere) et la corrélation temps-fréquence (r2t,f) , tandis que le coefficient de régression non-linéaire (h²) a été utilisé pour analyser des relations non-linéaires. Nous avons calculé les deux directions de couplage pendant l'évaluation de l'indice h2 de régression non-linéaire. Enfin, à partir de l'ensemble du processus d'analyse, il est évident que les trois indices (r2tf_rn_raw_0p2_0p4, h2_rn_raw et h2_nr_raw) sont des moyens complémentaires pour le diagnostic du sepsis de façon non-invasive chez ces patients fragiles. (3) Après, l'étude de faisabilité de la détection du sepsis en USIN est réalisée sur la base des paramètres retenus lors des études MV et BV. Nous avons montré que le test proposé, basé sur la fusion optimale des six indices ci-dessus, conduit à de bonnes performances statistiques. En conclusion, les mesures choisies lors de l'analyse des signaux en MV et BV ont une bonne répétabilité et permettent de mettre en place un test en vue du diagnostic non invasif et précoce du sepsis. Le test proposé peut être utilisé pour fournir une alarme fiable lors de la survenue d'un épisode d'AB tout en exploitant les systèmes de monitoring actuels en USIN
Late-onset sepsis, defined as a systemic infection in neonates older than 3 days, occurs in approximately 10% of all neonates and in more than 25% of very low birth weight infants who are hospitalized in Neonatal Intensive Care Units (NICU). Recurrent and severe spontaneous apneas and bradycardias (AB) is one of the major clinical early indicators of systemic infection in the premature infant. Various hematological and biochemical markers have been evaluated for this indication but they are invasive procedures that cannot be repeated several times. The objective of this Ph.D dissertation was to determine if heart rate variability (HRV), respiration and the analysis of their relationships help to the diagnosis of infection in premature infants via non-invasive ways in NICU. Therefore, we carried out Mono-Channel (MC) and Bi-Channel (BC) Analysis in two selected groups of premature infants: sepsis (S) vs. non-sepsis (NS). (1) Firstly, we studied the RR series not only by distribution methods (moy, varn, skew, kurt, med, SpAs), by linear methods: time domain (SD, RMSSD) and frequency domain (p_VLF, p_LF, p_HF), but also by non-linear methods: chaos theory (alphaS, alphaF) and information theory (AppEn, SamEn, PermEn, Regul). For each method, we attempt three sizes of window 1024/2048/4096, and then compare these methods in order to find the optimal ways to distinguish S from NS. The results show that alphaS, alphaF and SamEn are optimal parameters to recognize sepsis from the diagnosis of late neonatal infection in premature infants with unusual and recurrent AB. (2) The question about the functional coupling of HRV and nasal respiration is addressed. Linear and non-linear relationships have been explored. Linear indexes were correlation (r²), coherence function (Cohere) and time-frequency index (r2t,f), while a non-linear regression coefficient (h²) was used to analyze non-linear relationships. We calculated two directions during evaluate the index h2 of non-linear regression. Finally, from the entire analysis process, it is obvious that the three indexes (r2tf_rn_raw_0p2_0p4, h2_rn_raw and h2_nr_raw) were complementary ways to diagnosticate sepsis in a non-invasive way, in such delicate patients.(3) Furthermore, feasibility study is carried out on the candidate parameters selected from MC and BC respectively. We discovered that the proposed test based on optimal fusion of 6 features shows good performance with the largest Area Under Curves (AUC) and the least Probability of False Alarm (PFA). As a conclusion, we believe that the selected measures from MC and BC signal analysis have a good repeatability and accuracy to test for the diagnosis of sepsis via non-invasive NICU monitoring system, which can reliably confirm or refute the diagnosis of infection at an early stage
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Broncy, Lucile. "Isolement et caractérisation moléculaire de cellules rares circulantes individuelles : développement de nouvelles approches méthodologiques en oncologie prédictive et diagnostic prénatal". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS391/document.

Texto completo
Resumen
L’objectif principal de ce projet de recherche doctorale est la mise au point d’approches méthodologiques fiables et reproductibles permettant la caractérisation génétique de cellules rares circulantes isolées par la méthode de filtration ISET® (Rarecells®, France). La première application développée consiste en la détection des mutations du gène suppresseur de tumeur VHL (Von Hippel Lindau) dans les cellules rares circulantes (CRC) uniques isolées du sang de 30 patients atteints de carcinome rénal à cellules claires (CRCC), et réalisée comparativement à l’analyse cytopathologique. L’étude génétique a également été conduite en parallèle dans les 30 tissus tumoraux correspondants. Les résultats ont mis en lumière une potentielle complémentarité de l’approche de génétique moléculaire sur cellules uniques avec l’analyse cytomorphologique de référence et suggèrent que combiner ces approches permettrait d’obtenir une plus grande sensibilité de détection des cellules cancéreuses circulantes chez les patients atteints de CRCC. Une deuxième application a consisté en le développement d’une approche innovante pour le diagnostic prénatal non-invasif des maladies génétiques récessives par analyse de cellules trophoblastiques rares collectées au niveau du col de l’utérus. Enfin, des développements supplémentaires ont permis d’optimiser les analyses de séquençage à haut débit et de les appliquer à des CRC individuelles isolées par ISET®. Cette nouvelle approche, associée à l’isolement de CRC non fixées, est en mesure de fournir des données génétiques élargies à l’exome entier pour des applications à la fois en oncologie prédictive et en diagnostic prénatal non invasif
The aim of this doctoral research project is the development of reliable and reproducible methodological approaches enabling the genetic characterization of circulating rare cells (CRC) isolated by ISET® filtration (Rarecells®, France). The first application developed consists in detecting mutations of the VHL (Von Hippel Lindau) tumor suppressor gene in single CRC isolated from the blood of 30 patients patients with clear cell renal cell carcinoma (ccRCC), assessed according to the results obtained by cytopathological analysis. In parallel, genetic analysis of VHL mutations was conducted in the corresponding tumor tissues. Results revealed a potential complementarity of the molecular genetic approach targeted to single cells with the reference method of cytopathological analysis and suggested that combining both strategies could improve the sensitivity of circulating cancer cells’ detection in patients with ccRCC. A second application consisted in the development of an innovative approach for non-invasive prenatal diagnosis of recessive genetic diseases by analysis of rare trophoblastic cells collected from the cervix. Finally, further developments allowed to optimize high-throughput sequencing analyses and to apply them to single CRC isolated by ISET®. This approach, combined with the isolation of living CRC, enabled us to obtain broader genetic data from the whole exome and should foster innovative applications to both predictive oncology and non-invasive prenatal diagnosis
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Lian, Chunfeng. "Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer". Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2333/document.

Texto completo
Resumen
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art
Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Lopes, da Frota Moreira Pedro. "Model based force control for soft tissue interaction and applications in physiological motion compensation". Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20179/document.

Texto completo
Resumen
L'introduction de systèmes robotisés dans les salles opératoires a fait évoluer la chirurgie moderne, ouvrant aux chirurgiens de nouvelles possibilités. La présence de tels systèmes en salle opératoire croît chaque année. Les progrès des robots médicaux sont étroitement liés au développement de nouvelles techniques permettant de mieux contrôler les interactions entre la machine et les tissus biologiques. L'objectif principal de cette thèse est de proposer une commande en force basée sur un modèle, conçue pour améliorer la stabilité et la robustesse du contrôle en vue d'applications médicales. Une étude sur la modélisation des tissus mous ainsi que le choix d'un modèle compatible temps-réel sont présentés. Après cette analyse, le modèle de Kelvin Boltzmann a été choisi et implémenté dans le schéma de contrôle en force proposé, basé sur des observateurs actifs. La stabilité et la robustesse de la commande sont analysées en théorie et au travers d'expérimentations. Les performances de la commande en force sont également mesurées, en tenant compte des perturbations dues aux mouvements physiologiques. Finalement, afin d'améliorer la qualité du rejet des perturbations, une boucle de commande supplémentaire est ajoutée au moyen d'une estimation des perturbations basée sur le modèle de Kelvin Boltzmann et des séries de Fourier
The introduction of robotic systems inside the operating room has changed the modern surgery, opening new possibilities to surgeons. The number of robotic systems inside the operation room is increasing every year. The progress of medical robots are associated to the development of new techniques to better control the interaction between the robot and living soft tissues. This thesis focus on the development of a model based force control designed to improve stability and robustness of force control addressed to medical applications. A study of soft tissue modeling is presented and a suitable model to be used in a real-time control is selected. After the analysis, the Kelvin Boltzmann model was chosen to be inserted in the proposed force control scheme based on Active Observers. Stability and robustness are theoretically and experimentally analyzed. The performance of the proposed force control is also investigated under physiological motion disturbances. At the end, to improve the disturbance rejection capability, an extra control loop is added using a disturbance estimation based on the Kelvin Boltzmann model and a Fourier series
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Fiot, Jean-Baptiste. "Méthodes mathématiques d'analyse d'image pour les études de population transversales et longitudinales". Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00952079.

Texto completo
Resumen
En médecine, les analyses de population à grande échelle ont pour but d'obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients. Dans cette thèse, nous présentons d'abord le contexte médical de la maladie d'Alzheimer, rappelons certains concepts d'apprentissage statistique et difficultés rencontrées lors de l'application en imagerie médicale. Dans la deuxième partie, nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel. Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM) permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d'apprentissage de variétés pour l'analyse de formes et d'images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d'imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampes de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l'identification de marqueurs biologiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Fiot, Jean-Baptiste. "Méthodes mathématiques d’analyse d’image pour les études de population transversales et longitudinales". Thesis, Paris 9, 2013. http://www.theses.fr/2013PA090053/document.

Texto completo
Resumen
En médecine, les analyses de population à grande échelle ont pour but d’obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients.Dans cette thèse, nous présentons d’abord le contexte médical de la maladie d’Alzheimer, rappelons certains concepts d’apprentissage statistique et difficultés rencontrées lors de l’application en imagerie médicale. Dans la deuxième partie,nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel.Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM)permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d’apprentissage de variétés pour l’analyse de formes et d’images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d’imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampus de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l’identification de marqueurs biologiques
In medicine, large scale population analysis aim to obtain statistical information in order to understand better diseases, identify their risk factors, develop preventive and curative treatments and improve the quality of life of the patients.In this thesis, we first introduce the medical context of Alzheimer’s disease, recall some concepts of statistical learning and the challenges that typically occurwhen applied in medical imaging. The second part focus on cross-sectional studies,i.e. at a single time point. We present an efficient method to classify white matter lesions based on support vector machines. Then we discuss the use of manifoldlearning techniques for image and shape analysis. Finally, we present extensions ofLaplacian eigenmaps to improve the low-dimension representations of patients usingthe combination of imaging and clinical data. The third part focus on longitudinalstudies, i.e. between several time points. We quantify the hippocampus deformations of patients via the large deformation diffeomorphic metric mapping frameworkto build disease progression classifiers. We introduce novel strategies and spatialregularizations for the classification and identification of biomarkers
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Lu, Pascal. "Statistical Learning from Multimodal Genetic and Neuroimaging data for prediction of Alzheimer's Disease". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS636.

Texto completo
Resumen
De nos jours, la maladie d'Alzheimer est la principale cause de démence. Elle provoque des troubles de mémoires et de comportements chez les personnes âgées. La diagnostic précoce de la maladie d'Alzheimer est un sujet actif de recherche. Trois différents types de données jouent un role particulier dans le diagnostic de la maladie d'Alzheimer: les tests cliniques, les données de neuroimagerie et les données génétiques. Les deux premières modalités apportent de l'information concernant l'état actuel du patient. En revanche, les données génétiques permettent d'identifier si un patient est à risque et pourrait développer la maladie d'Alzheimer dans le futur. Par ailleurs, durant la dernière décennie, les chercheurs ont crée des bases de données longitudinales sur la maladie d'Alzheimer et d'importantes recherches ont été réalisées pour le traitement et l'analyse de données complexes en grande dimension. La première contribution de cette thèse sera d'étudier comment combiner différentes modalités dans le but d'améliorer leur pouvoir prédictif dans le contexte de la classification. Nous explorons les modèles multiniveaux permettant de capturer les potentielles interactions entre modalités. Par ailleurs, nous modéliserons la structure de chaque modalité (structure génétique, structure spatiale du cerveau) à travers l'utilisation de pénalités adaptées comme la pénalité ridge pour les images, ou la pénalité group lasso pour les données génétiques. La deuxième contribution de thèse sera d'explorer les modèles permettant de prédire la date de conversion à la maladie d'Alzheimer pour les patients atteints de troubles cognitifs légers. De telles problématiques ont été mises en valeurs à travers de challenge, comme TADPOLE. Nous utiliserons principalement le cadre défini par les modèles de survie. Partant de modèles classiques, comme le modèle d'hasard proportionnel de Cox, du modèle additif d'Aalen, et du modèle log-logistique, nous allons développer d'autres modèles de survie pour la combinaisons de modalités, à travers un modèle log-logistique multiniveau ou un modèle de Cox multiniveau
Alzheimer's Disease (AD) is nowadays the main cause of dementia in the world. It provokes memory and behavioural troubles in elderly people. The early diagnosis of Alzheimer's Disease is an active topic of research. Three different types of data play a major role when it comes to its diagnosis: clinical tests, neuroimaging and genetics. The two first data bring informations concerning the patient's current state. On the contrary, genetic data help to identify whether a patient could develop AD in the future. Furthermore, during the past decade, researchers have created longitudinal dataset on A and important advances for processing and analyse of complex and high-dimensional data have been made. The first contribution of this thesis will be to study how to combine different modalities in order to increase their predictive power in the context of classification. We will focus on hierarchical models that capture potential interactions between modalities. Moreover, we will adequately modelled the structure of each modality (genomic structure, spatial structure for brain images), through the use of adapted penalties such as the ridge penalty for images and the group lasso penalty for genetic data. The second contribution of this thesis will be to explore models for predict the conversion date to Alzheimer's Disease for mild cognitive impairment subjects. Such problematic has been enhanced by the TADPOLE challenge. We will use the framework provided by survival analysis. Starting from basic models such as the Cox proportional hasard model, the additive Aalen model, and the log-logistic model, we will develop other survival models for combining different modalities, such as a multilevel log-logistic model or a multilevel Cox model
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Bailly, François. "Optimisation du traitement anti-VHC : place des dosages pharmacologiques et des cinétiques virales à l'ère des antiviraux directs". Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10328/document.

Texto completo
Resumen
Le traitement du VHC connaît une évolution rapide avec le développement d'antiviraux à action directe plus efficaces et mieux tolérés qui vont modifier les stratégies thérapeutiques, les facteurs prédictifs de réponse et les modalités de suivi des patients. Notre travail s'intéresse aux paramètres de suivi du traitement que sont les dosages pharmacologiques de ribavirine et le suivi des cinétiques virales lors d'une trithérapie. L'étude d'une cohorte prospective incluant 186 patients sous trithérapie par IP montre que 60% d'entre-eux présentent une SVR12 et que les facteurs prédictifs sont le génotype de l'IL28B et la réponse au précédent traitement. Une diminution de la filtration glomérulaire réversible est également observée. La mesure du taux résiduel de ribavirine permet de réduire les risques hématologiques chez des patients insuffisants rénaux, la réalisation de l'ASC témoigne d'une moins bonne exposition à la ribavirine chez des patients co-infectés par le VIH/VHC et la biodisponibilité de la ribavirine et la sévérité des anémies augmentent chez des patients traités par télaprévir. Au sein de la cohorte CUPIC, la négativation ou la diminution >50-70% de la charge virale initiale à S2 de trithérapie sont fortement prédictives de la SVR12. Cette mesure à S2 permet aussi de dépister les échappements viraux précoces. La place de la ribavirine est importante dans les associations thérapeutiques actuelles et futures. Sa surveillance pharmacologique peut avoir un intérêt au cours de futures multi-thérapies exposant à d'éventuelles interactions médicamenteuses
The rapid development of new direct antiviral agents (DAA) against HCV gives hope of more potent and well tolerated treatments. These new compounds will deeply modify therapeutic schedules, virological response prognostic factors and patients’ monitoring. The aim of our work was to define the relevance of ribavirin plasma concentration and viral kinetics monitoring during triple therapy. The study of a prospective cohort including 186 patients under triple therapy showed an SVR12 rate of 60%. Associated predictive factors were IL-28B genotype and previous treatment response. A reversible decrease of glomerular filtration rate was also observed. Ribavirin plasma concentration monitoring reduced hematological risks among patients with renal insufficiency. Early ribavirin plasma exposure showed an underexposure among HIV/HCV patients and ribavirin biodisponibility with severe anemia increased among telaprevir-treated patients. Within the CUPIC cohort, the initial viral load undetectability or decrease up to 50% or 70% at week 2 of triple therapy were predictive of SVR12. Moreover, this week 2 viral load assessment allowed the detection of early viral breakthrough. Ribavirin still plays a major role in current and future therapeutic strategies. Ribavirin monitoring could also be important during future multi-drug therapy that could be associated with drug interactions
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Huchon, Cyrille. "Développement d'un autoquestionnaire pour le diagnostic des algies pelviennes aigües". Phd thesis, Université René Descartes - Paris V, 2012. http://tel.archives-ouvertes.fr/tel-00691369.

Texto completo
Resumen
Les algies pelviennes aigues constituent le premier motif de consultation aux urgences gynécologiques. Les étiologies possibles de ces algies pelviennes aigues sont nombreuses et incluent à la fois des affections gynécologiques et non gynécologiques. Certaines de ces affections peuvent, en l'absence de diagnostic précoce et d'un traitement adapté, avoir des conséquences très graves. Dans ce travail, nous avons développé un autoquestionnaire standardisé de manière qualitative dédié aux urgences gynécologiques par des entretiens structurés. Nous avons ensuite construit des modèles de prédiction clinique dédiés (i) au diagnostic de rupture tubaire chez les patientes porteuses de grossesses extra-utérines et (ii) au diagnostic de torsion d'annexe à partir de cet autoquestionnaire. Après avoir défini le concept d'urgence potentiellement à risque en gynécologie, nous avons proposé (iii) un modèle de prédiction clinique de celles-ci basé sur notre autoquestionnaire standardisé. A l'issue du développement de ces modèles, nous avons sélectionné certains items de l'autoquestionnaire standardisé afin d'en proposer une version simplifiée. L'utilisation de nos modèles pour le tri et le diagnostic des patientes aux urgences gynécologiques pourrait permettre d'optimiser la prise en charge des patientes. Dans les groupes à haut risque de pathologie, les patientes pourraient bénéficier d'une prise en charge plus rapide avec une éventuelle diminution de la morbidité secondaire à la pathologie. Pour les patientes classées à bas risque, une désescalade des examens complémentaires et des chirurgies inutiles pourrait aussi permettre une diminution de la morbidité d'origine iatrogène.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Couronné, Raphaël. "Modélisation de la progression de la maladie de Parkinson". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS363.

Texto completo
Resumen
Dans ce travail, nous développons des méthodes statistiques pour modéliser la progression de la Maladie de Parkinson (MP) à partir de données répétées. La progression de la MP, très hétérogène, est complexe à modéliser. Pour mieux comprendre la progression des maladies neurodégénératives, des études effectuent un suivi de patients dans le temps, avec une batterie de tests à chaque visite. Ces données permettent d’étudier les différents types de progression par analyse statistique. Dans une première partie, nous modélisons la progression de marqueurs scalaires de la maladie de Parkinson. Nous nous basons sur un modèle longitudinal, le modèle longitudinal spatiotemporel. Nous proposons de gérer les valeurs manquantes, ainsi que de modéliser la progression jointe de marqueurs de différentes natures, comme les scores cliniques, ou les marqueurs extraits de l’imagerie. Avec ce modèle, nous nous concentrons d'abord sur la modélisation des symptômes moteurs précoces dans la MP. Puis nous étudions l'hétérogénéité de la MP, avec un accent sur les troubles du sommeil. Dans une seconde partie indépendante, nous étudions la modélisation de données longitudinales provenant de l'imagerie. Nous proposons d'utiliser un réseau de neurone comme méthode de réduction de dimension afin de construire un système de coordonnées spatiotemporel de progression de la maladie. Nous tirons parti de la flexibilité des réseaux de neurones pour modéliser la progression de données multimodales. Enfin, en supposant la monotonicité des marqueurs au cours du temps, nous nous appuyons sur l’ordre des visites plutôt que l’âge des patients pour modéliser plus finement la variabilité temporelle de nos données
In this work, we developed statistical methods to model disease progression from patient’s repeated measurements, with a focus on Parkinson’s Disease (PD). A key challenge lies in the inherent heterogeneity of PD across patients, to the extent that PD is now suspected to encompass multiple subtypes or motor phenotypes. To gain insights on disease progression, research studies propose to gather a broad range of marker measurements, at multiple timepoints for each patients. These data allow to investigate the disease’s patterns of progression via statistical modeling. In a first part, we modeled the progression of scalar markers of PD. We extended on a disease progression model, namely the longitudinal spatiotemporal model. We then proposed to address data missingness, and to model the joint progression of markers of different nature, such as clinical scores, and scalar measurements extracted on imaging modalities. With this method, we modeled early motor progression in PD, and, in a second work, the heterogeneity of idiopathic PD progression, with a focus on sleep symptoms. In a second, independent, part of the manuscript, we tackled the longitudinal modeling of medical images. For these higher dimensionality data, Deep Learning is often used, but mostly in cross sectional setups, ignoring the possible inner dynamics. We proposed to leverage Deep Learning as a dimensionality reduction tool to build a spatiotemporal coordinate system of disease progression. We first took advantage of this flexibility to handle multimodal data. Then we leveraged the self-supervision induced by assuming monotonicity over time, to offer higher flexibility in modeling temporal variability
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Arnaud, Mado. "Interventions précoces en autisme : trajectoires développementales, prédicteurs de la progression et vécu parental". Thesis, Toulouse 2, 2019. http://www.theses.fr/2019TOU20011.

Texto completo
Resumen
Contexte : Le Trouble du Spectre de l’Autisme se caractérise par une grande hétérogénéité dans l’étiologie et le développement des signes cliniques. La recherche fait état de la nécessité de développer des interventions précoces, d’en évaluer les effets et de réfléchir aux modalités d’inclusion des familles.Étude 1 : Cette étude a pour objectif de déterminer l’effet du contexte sur la régulation de l’attention sociale de jeunes enfants atteints de TSA. Les résultats indiquent que les enfants TSA regardent moins le visage et ce d’autant plus que le contexte est peu engageant socialement. La tâche d’attention sociale peut être utilisée dans la recherche de facteurs prédictifs de la progression des enfants. Étude 2 : L’objectif de cette étude est de caractériser les trajectoires de développement d’enfants bénéficiant d’une intervention précoce et d’identifier des facteurs prédictifs de la progression. Une progression significative de la compréhension et de l’expression est rapportée. Le niveau initial de compréhension du langage est un facteur prédictif de la variabilité dans la progression des enfants dans le domaine du langage expressif. L’attention sociale est un prédicteur du niveau initial d’habileté sociale.Étude 3 : L’objectif de cette étude est d’explorer le vécu des parents concernant la mise en œuvre d’une Intervention Médiatisée par les Parents via un Programme de Télésanté. Les entretiens conduits à l’issue du programme indiquent que la Télésanté pourrait favoriser la dissémination des IMPP mais qui ne doivent pas se substituer aux interventions précoces. Conclusion : L’hétérogénéité des personnes atteintes de TSA s’exprime au travers de différences importantes dans les profils de développement. Cette hétérogénéité se retrouve également dans la réponse des enfants à une intervention. La recherche des facteurs prédictifs et des ingrédients actifs des interventions est nécessaire pour proposer un accompagnement le plus individualisé possible. Enfin, le soutien des parents est primordial pour améliorer leur qualité de vie, soutenir leurs pratiques éducatives et favoriser la continuité dans les parcours
Background: Autism spectrum disorder is characterized by a large heterogeneity at both the level of its etiology and in the developmental course of its core features. In this context, it is worth stressing the need for developing early interventions and evaluate their effects as well as questioning the role of the family.Study 1: This study aims to examine the effect of context on social attention in young children with ASD. Children with ASD look less at the face especially in contexts that are less socially engaging. The present Social attention task may be used as a predictive factor of a child’s progression.Study 2: The objective of this study is to characterize the developmental trajectories of young children who received Early Start Denver model intervention, and to identify factors that may influence their progression. Children show significant improvements in their level of comprehension and expression. Initial level of comprehension is a predictor of children's progress in the field of expressive communication. The social attention task is a predictor of the initial level of social skills.Study 3: In the third study the parental experiences of Parent Mediated Intervention via a telehealth program is explored. Interviews conducted after the program ended indicate that Telehealth may be relevant to the dissemination of Parent Mediated Interventions but caution is also needed as these interventions should not replace early intervention.Conclusion: Heterogeneity in ASD is present from early childhood and is expressed through significant differences in developmental patterns. This heterogeneity is also reflected in the children's response to an intervention. The search for predictive factors and the active ingredients of the intervention is necessary to offer the most individualized support possible. Finally, the support of parents is essential to improve their quality of life, foster their educational practices and to promote paths continuity
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Bresson, Damien. "Étude de l’écoulement sanguin dans un anévrysme intracrânien avant et après traitement par stent flow diverter : quantification par traitement d’images de séquences angiographiques 2D". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2308/document.

Texto completo
Resumen
Les anévrysmes intracrâniens (AIC) sont des malformations artérielles développées au dépend des vaisseaux qui vascularisent le parenchyme cérébral. Leur rupture provoque une hémorragie intracrânienne, appelée hémorragie sous-arachnoïdienne, responsable d'une mortalité importante ou de séquelles fonctionnelles lourdes. Le traitement préventif de ces lésions est fréquemment réalisé lors d'une procédure endovasculaire (appelée coiling), par implantation, au sein de la poche artérielle pathologique, de spires métallique en platine à détachement contrôlé (les coils). La présence de ce matériel provoque une thrombose de la poche ce qui entraine secondairement une exclusion de l'anévrysme de la circulation artérielle. Une modalité de traitement endovasculaire plus récente fait appel à un dispositif implantable innovant appelé stent "flow diverter" (FD) que l'on déploie en regard de l'orifice qui fait communiquer l'artère et l’anévrysme : le collet anévrysmal. Ces stents FD, au design particulier, associant une faible porosité à une densité de pores élevée, agissent comme des "déflecteurs" et diminuent le flux sanguin entrant et sortant de l'anévrysme. L'objectif du traitement demeure toujours l'exclusion de l'anévrysme mais celle-ci est obtenue indirectement en agissant sur la "porte d'entrée" de l'anévrysme (le collet) et non plus directement sur la poche anévrysmale elle-même. Il ne s'agit plus alors de remplir le sac anévrysmal avec des coils mais de provoquer une thrombose stable et pérenne en altérant uniquement le flux sanguin qui le pénètre. Cette modalité thérapeutique novatrice a suscité un engouement important de la part des neuroradiologues interventionnels depuis 2007, date des premières implantations en Europe. Cependant, bien que reposant sur les capacités d'un tel dispositif à modifier le flux, on constate qu'il existe très peu d'outils d'imagerie disponibles actuellement et capables de quantifier ces modifications en un délai raisonnable pour pouvoir être exploité lors du traitement endovasculaire. De cette constatation clinique est né un projet collaboratif dont la finalité était le développement d'un outil logiciel basé sur les séquences d'angiographie numérisées soustraites et capable de mesurer au moins un des aspects du flux sanguin (et donc de ses modifications). La démarche de recherche mise en œuvre s'est effectuée en trois étapes. Premièrement, une étape expérimentale portant sur la réalisation d'un modèle "optimisé" d'AIC permettant le recueil de données hémodynamiques et d'imagerie. Puis, une étape de recherche plus fondamentale comprenant deux parties: d'une part des simulations numériques réalisées dans le cadre d'un modèle 3D réaliste d'AIC et d'autre part l'analyse d'images angiographiques. Au cours de cette étape, nous avons utilisé des outils de traitement d'images existants et développé certains algorithmes, puis les avons validés avant de les implémenter sous JAVA pour créer un outil logiciel d'analyse de flux. Enfin, la dernière étape du projet a consisté en l'exploitation du logiciel pour étudier une série clinique de patients traités d'un AIC par stent FD. Elle a permis de mettre en évidence certains facteurs prédictifs d'exclusion de l'anévrysme à long terme susceptible d'avoir un impact, en temps réel, sur le traitement des AIC par stent FD
Intracranial aneurysms treatment based on intra aneurismal flow modification tend to replace traditionally coiling in many cases and not only complex aneurysms for which they were initially designed. Dedicated stents (low porosity, high pores density stents) called “flow diverter” stents are deployed across the neck of the aneurysm to achieve this purpose. The summation of three different mechanisms tend to lead to the healing of the aneurysm: immediate flow alteration due to the mechanical screen effect of the stent, physiological triggering of acute or progressive thrombus formation inside the aneurysm’s pouch and long term biological response leading in neointima formation and arterial wall remodeling. This underlying sequence of processes is also supposed to decrease the recanalization rate. Scientific data supporting the flow alteration theory are numerous and especially computational flow dynamics (CFD). These approaches are very helpful for improving biomechanical knowledge of the relations between blood flow and pathology, but they do not fit in real-time treatments. Neuroendovascular treatments are performed under dynamic x-ray modality (digital subtracted angiography a DSA-).However, in daily practice, FD stents are sized to the patient’s 3D vasculature anatomy and then deployed. The flow modification is then evaluated by the clinician in an intuitive manner: the decision to deploy or not another stent is based solely on a visual estimation. The lack of tools available in the angioroom for quantifying in real time the blood flow hemodynamics should be pointed out. It would make sense to take advantage of functional data contained in contrast bolus propagation and not only anatomical data. Thus, we proposed to create flow software based on angiographic analysis. This software was built using algorithms developed and validated on 2D-DSA sequences obtained in a swine intracranial aneurysm model. This intracranial animal model was also optimized to obtain 3D vascular imaging and experimental hemodynamic data that could be used to realize realistic computational flow dynamic. In a third step, the software tool was used to analyze flow modification from angiographic sequences acquired during unruptured IA from patients treated with a FD stent. Finally, correlation between flow change and aneurysm occlusion at long term follow-up with the objective of identifying predictive markers of long term occlusion was performed
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Tran, N. H. "Extension et validation de l'outil Geant4 dans le cadre du projet Geant4-DNA pour la prédiction des dommages biologiques radio-induits à l'échelle cellulaire". Phd thesis, 2012. http://tel.archives-ouvertes.fr/tel-00780481.

Texto completo
Resumen
L'étude des effets biologiques des radiations ionisantes à l'échelle de la cellule individuelle et en particulier sur l'ADN du noyau cellulaire reste un enjeu majeur de la radiobiologie actuelle. L'objectif principal des recherches actuelles est de déterminer quels peuvent être les effets biologiques délétères des radiations ionisantes pour la santé humaine, en particulier dans le domaine des faibles doses de radiation. Afin d'étudier précisément la réponse des cellules aux radiations ionisantes, de nombreuses études expérimentales des effets des radiations ionisantes sur les cellules, tissus et organismes biologiques aux basses énergies ont accumulées de grandes quantités de données de qualité sur la réponse de cellules aux radiations. Il existe également de nombreux modèles semi-empiriques de survie cellulaire qui incorporent des paramètres biologiques et physiques. En parallèle, des stochastiques basées sur la technique " Monte Carlo " pour modéliser les processus élémentaires en physique, chimie et biologie sont en cours de développement. L'outil Geant4 développé dès 1993 (CERN et KEK) en utilisant des techniques informatiques de dernière génération (C++) permet à l'utilisateur de construire une simulation complète grâce à de nombreuses fonctionnalités : formes géométriques, matériaux, particules élémentaires, processus physiques électromagnétiques et hadroniques, visualisation, analyse de données, interactivité et extensibilité... Cependant, Geant4 présente un certain nombre de limitations pour la simulation des effets biologiques des radiations ionisants à l'échelle subcellulaire : les modèles standard ne prennent pas compte le technique " pas-à-pas ", les modèles physique sont limités à basse énergie, il n'a pas des descriptions des cibles moléculaires et Geant4 n'est pas capable de simuler les étapes physico-chimique et chimique nécessaire pour déterminer l'oxydation des bases et les éventuelles cassures d'ADN.Dans ce contexte, le projet Geant4-DNA propose d'étendre Geant4 afin de modéliser les interactions des radiations ionisantes à l'échelle de la cellule biologique et la molécule d'ADN et aux basses énergies. Au cours du travail de thèse, j'ai tout d'abord validé les modèles physiques en comparant les résultats de simulation à une grande collection de données expérimentales disponibles dans la littérature. L'accord entre les valeurs de sections efficaces totales et différentielles et les mesures expérimentales a été quantifié à l'aide du test statistique Kolmogorov-Smirnov. J'ai par la suite amélioré les classes des processus de diffusion élastique des électrons et travailler sur les calculs théoriques du modèle de diffusion élastique des protons et des alphas dans l'eau liquide auparavant inexistant dans Geant4-DNA. J'ai effectué une combinaison des processus multi-échelles des modèles de Geant4-DNA (à l'échelle microscopique) avec les modèles électromagnétiques disponibles dans l'outil Geant4 (les processus d'interaction des photons et autres modèles de Geant4). A la fin de mon travail, j'ai participé à l'estimation des performances de Geant4-DNA pour la dosimétrie dans des géométries de petite taille (jusqu'à l'échelle du nanomètre) dans l'eau liquide à l'aide des distributions " Dose Point Kernel ". J'ai ensuite calculé les fréquences de dépôts d'énergie dans des petits cylindres de dimensions nanométriques correspondant à des cibles biologiques et des modèles de noyau cellulaire humain simplifié pour l'estimation des cassures directes simple et double. Mon travail de thèse a fournit les premiers résultats de Geant4-DNA pour la prédiction de cassure de brin d'ADN combinant physique et géométries à l'échelle de l'ADN. Enfin, nous avons développé des classes de processus et modèles basés sur l'approche CTMC-COB (Classical Trajetory Monte Carlo avec critère d'Over Barrier) spécifique aux bases de la molécule d'ADN et à l'eau liquide.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Khoury, Abdelnour. "Prédictions à court terme des frais médicaux hors Québec". Thèse, 2005. http://hdl.handle.net/1866/15338.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Bourque, Alexandra. "Suivi en temps réel de tumeurs cancéreuses par résonance magnétique et applications à la radiothérapie". Thèse, 2017. http://hdl.handle.net/1866/20600.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía