Dissertations / Theses on the topic 'Imagerie médicale – Tomodensitométrie'

To see the other types of publications on this topic, follow the link: Imagerie médicale – Tomodensitométrie.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 26 dissertations / theses for your research on the topic 'Imagerie médicale – Tomodensitométrie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Guerra, Rui. "Intégration des mouvements physiologiques en tomodensitométrie : estimation, reproduction et influence en imagerie cardiaque." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL003N/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une chaîne de traitement a été mise en place permettant de reproduire des mouvements physiologiques afin d’en étudier l’influence et tester les solutions pour y pallier. Une méthodologie originale, basée sur des acquisitions échographiques « Doppler Tissue Imaging », a permis de quantifier les mouvements tridimensionnels de contraction cardiaque. Ces données ont alors servi à optimiser le placement des fenêtres temporelles d’acquisition/reconstruction, à quantifier la résolution temporelle minimum pour geler le mouvement cardiaque le long de son cycle et de données d’entrées de commande d’une plateforme de mouvement et pour un simulateur informatique. Une étude dynamique menée sur des modélisations de calcifications d’artère coronaire a montré l’influence du mouvement respiratoire et la nécessité de l’intégrer dans le processus d’acquisition. Des premiers algorithmes d’estimation et de correction du mouvement ont également été testés sur des données brutes réelles et simulées
The new idea presented in this work takes into account patient motion in the acquisition and reconstruction processes. For this work, the complete acquisition system has been developed in order to reproduce physiologic motion, analyse their effect and propose correction methods to reduce image artefacts. A new methodology based on Doppler Tissue Imaging was used to find the motion in three dimensions of several coronary artery segments. Based on these data, optimal temporal windows were defined for reconstruction and an analysis of the ideal temporal window in the heart cycle was proposed. Both motion models were then used the control of a motion platform and as input for computer simulations. A first analysis carried on coronary calcification showed the influence of respiratory motion. Estimation and correction of motions were then performed on CT raw data and simulated motion. This works shows that it is necessary to include motion in the acquisition/reconstruction algorithms in CT
2

Gondim, Teixeira Pedro Augusto. "Développement et amélioration des outils d'imagerie médicale pour la caractérisation des masses tumorales du système ostéo-articulaire." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0178/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'imagerie médicale joue un rôle majeur dans l'identification, la caractérisation et le bilan d'extension des lésions tumorales du système ostéo-articulaire. La grande majorité de ces néoplasies est bénigne et il est important de savoir les reconnaître et les distinguer des lésions malignes. Ces dernières ont un pronostic beaucoup plus sombre et sont l'objet d'une prise en charge nettement plus agressive. L'IRM est actuellement la technique de choix pour l'évaluation des tumeurs ostéo-articulaires. Malgré une très haute sensibilité pour la détection des tumeurs osseuses et des parties molles, un grand nombre de lésions identifiées ne sont pas caractérisables. Récemment des nouvelles techniques d'imagerie fonctionnelle sont apparues permettant une évaluation tumorale au niveau biochimique et cellulaire. Ces techniques, initialement conçues pour l'évaluation des tumeurs cérébrales comme la perfusion, la diffusion et la spectroscopie ont commencé à être utilisées pour l'évaluation des néoplasies ostéo-articulaires avec des résultats préliminaires prometteurs. Parallèlement, avec le développement en scanner de systèmes de détection à large surface et l'échographie de contraste, l'étude de la perfusion tumorale basée sur ces méthodes est plus accessible en pratique courante. L'imagerie fonctionnelle reste, néanmoins peu accessible en dehors de la recherche. Des difficultés techniques inhérentes à l'application clinique de ces nouvelles méthodes et l'hétérogénéité histologique des tumeurs ostéo-articulaires constituent encore un obstacle important. Dans ce travail la performance diagnostique de plusieurs méthodes d'imagerie fonctionnelle en pratique courante a été évaluée. En autre, des améliorations permettant une augmentation de la qualité d'image et une réduction des artéfacts des méthodes fonctionnelles ont été testées. Secondairement, les performances diagnostiques de différentes méthodes de perfusion tumorale (échographie, tomodensitométrie et imagerie par résonance magnétique) ont été comparées
Medical imaging plays a major role in the identification, characterization and staging of tumor lesions of the musculoskeletal system. The vast majority of these neoplasms are benign and it is important to recognize and distinguish them from malignant lesions. Malignant lesions carry a worse prognosis and are usually treated aggressively. MRI is currently the method of choice for evaluating musculoskeletal tumors. Despite a high sensitivity for the detection of bone and soft tissue tumors, a large number of identified lesions remain indeterminate in origin after imaging work-up. In recent years, new functional imaging techniques, which allow tumor evaluation in a biochemical and cellular level, have emerged. These techniques such as perfusion, diffusion weighted imaging and MR spectroscopy, originally designed for the evaluation of brain tumors, began to be used for the evaluation of musculoskeletal neoplasms with promising preliminary results. Meanwhile, with the development of wide area-detector CT systems and contrast enhanced ultrasound (CEUS) new ways of assessing tumor perfusion became available in clinical practice. Functional imaging nevertheless remains largely inaccessible outside research oriented imaging centers. The clinical application of these new methods is hindered by various factors, which include the great histological heterogeneity of musculoskeletal tumors and patient related technical difficulties. In this project, the diagnostic performance of several functional imaging methods in clinical practice was assessed. Additionally tools for image quality improvement and artifact reduction were tested. Finally, the diagnostic performance of different perfusion methods (ultrasound, computed tomography and magnetic resonance imaging) was compared
3

Bérard, Philippe. "Réalisation d'un nouveau prototype combiné TEP/TDM pour l'imagerie moléculaire de petits animaux." Thèse, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4289.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, la tomographie d'émission par positrons (TEP) s'est imposée comme l'outil diagnostique par excellence pour déceler la présence de tumeurs et caractériser leur statut métabolique. Comme les images TEP souffrent généralement d'une localisation anatomique imprécise, le diagnostic est d'autant plus fiable lorsque l'information fonctionnelle et moléculaire fournie par la TEP peut être complétée par l'information anatomique détaillée obtenue par une autre modalité d'imagerie comme la tomodensitométrie (TDM) ou l'imagerie par résonance magnétique (IRM). L'émergence de l'imagerie multi-modale TEP/TDM (ou"PET/CT") permet d'obtenir, à tour de rôle, l'information anatomique et métabolique du patient en effectuant successivement les examens TDM et TEP sans avoir à déplacer le patient d'une salle à l'autre, ce qui facilite beaucoup les procédures de recalage d'images. Toutefois, il peut arriver, vu le déplacement du lit du patient d'un scanner à l'autre, que le patient bouge volontairement ou involontairement (mouvement péristaltique, cardiaque ou pulmonaire), ce qui cause des imprécisions dans les images fusionnées. Afin d'éviter ce problème, un simulateur TEP/TDM reposant sur un système de détection commun, celui du scanner LabPET(TM), a été développé. Détectant à la fois le rayonnement émis par le radiotraceur utilisé en TEP et les rayons-X de plus faible énergie utilisée en TDM, des images TEP/TDM ont été obtenues sans aucun déplacement du sujet. Pour obtenir ces images, des algorithmes numériques de traitement de signal ont été développés afin de diminuer l'empilement de signaux et ainsi mieux discerner les photons incidents du niveau de bruit électronique. De plus, des algorithmes de reconstruction d'images adaptés à la géométrie du simulateur ont été développés. Les résultats obtenus ont démontré qu'il est possible d'obtenir, avec relativement peu de radiations ionisantes, des images anatomiques avec un contraste suffisant pour l'imagerie moléculaire. Cependant, la résolution spatiale obtenue avec cet appareil n'était pas suffisante pour bien identifier les structures anatomiques fines chez la souris (le modèle animal par excellence en recherche biomédicale). Le détecteur LabPET II, dont les pixels font 1.2 × 1 2 mm[indice supérieur 2] a donc été développé afin d'atteindre une résolution submillimétrique en imagerie TEP et de l'ordre de 500 [micro]m en imagerie TDM. Fabriqué à partir de deux matrices de photodiodes avalanches, ce détecteur comptant 64 canaux d'acquisition individuels a été caractérisé ainsi que son électronique. Le rehaussement du simulateur avec ces détecteurs permettra de construire sous peu le premier appareil TEP/TDM avec un nouveau système de détection. Les applications de ce type d'appareil en recherche sur modèle animal sont nombreuses et diversifiées : étude de la croissance normale, étude de l'évolution des maladies et évaluation de l'efficacité des thérapies, développement de produits radiopharmaceutiques, etc.... Chez l'humain, l'approche TEP/TDM combinée proposée permettra d'améliorer la détection précoce des cancers et de faciliter le suivi des patients sous thérapie grâce à une réduction importante des doses de radiations.
4

Zuluaga, Valencia Maria Alejandra. "Méthodes d'automatisation de la détection des lésions vasculaires dans des images de tomodensitométrie." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00860825.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse sont consacrés à la détection et le diagnostic des lésions vasculaires, particulièrement dans le cas la maladie coronaire. La maladie coronaire continue à être la première cause de mortalité dans les pays industrialisés. En général, l'identification des lésions vasculaires est abordée en essayant de modéliser les anormalités (lésions). Le principal inconvénient de cette approche est que les lésions sont très hétérogènes, ce qui rend difficile la détection de nouvelles lésions qui n'ont pas été prises en compte par le modèle. Dans cette thèse, nous proposons de ne pas modéliser directement les lésions, mais de supposer que les lésions sont des événements anormaux qui se manifestent comme points avec une faible densité de probabilité. Nous proposons l'utilisation de deux méthodes de classification basées sur les Machines à Vecteurs de Support (SVM) pour résoudre le problème de détection du niveau de densité. Le principal avantage de ces deux méthodes est que la phase d'apprentissage ne requiert pas de données étiquetées représentant les lésions. La première méthode est complètement non supervisée, alors que la seconde exige des étiquettes seulement pour les cas qu'on appelle sains ou normaux. L'utilisation des algorithmes de classification sélectionnés nécessite des descripteurs tels que les anomalies soient représentées comme des points avec une densité de probabilité faible. A cette fin, nous avons développé une métrique basée sur l'intensité de l'image, que nous avons appelée concentric rings. Cette métrique est sensible à la quasi-symétrie des profils d'intensité des vaisseaux sains, mais aussi aux écarts par rapport à cette symétrie, observés dans des cas pathologiques. De plus, nous avons sélectionné plusieurs autres descripteurs candidats à utiliser comme entrée pour les classifieurs. Des expériences sur des données synthétiques et des données de CT cardiaques démontrent que notre métrique a une bonne performance dans la détection d'anomalies, lorsqu'elle est utilisée avec les classifeurs retenus. Une combinaison de plusieurs descripteurs candidats avec la métrique concentric rings peut améliorer la performance de la détection. Nous avons défini un schéma non supervisé de sélection de descripteurs qui permet de déterminer un sous-ensemble optimal de descripteurs. Nous avons confronté les résultats de détection réalisée en utilisant le sous-ensemble de descripteurs sélectionné par notre méthode avec les performances obtenues avec des sous-ensembles sélectionnés par des méthodes supervisées existantes. Ces expériences montrent qu'une combinaison de descripteurs bien choisis améliore effectivement les performances des classifieurs et que les meilleurs résultats s'obtiennent avec le sous-ensemble sélectionné par notre méthode, en association avec les algorithmes de détection retenus. Finalement, nous proposons de réaliser un recalage local entre deux images représentant différentes phases du cycle cardiaque, afin de confronter les résultats de détection dans ces images (phases). L'objectif ici est non seulement d'attirer l'attention du praticien sur les anomalies détectées comme lésions potentielles, mais aussi de l'aider à conforter son diagnostic en visualisant automatiquement la même région reconstruite à différents instants du cycle cardiaque.
5

Cedilnik, Nicolas. "Personnalisation basée sur l'imagerie de modèles cardiaques électrophysiologiques pour la planification du traitement de la tachycardie ventriculaire." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La survie lors de la phase aiguë de l'infarctus du myocarde a énormément progressé au cours des dernières décennies, augmentant ainsi la mortalité des affections liées à l'infarctus chronique.Parmi ces pathologies, la tachycardie ventriculaire (TV) est une arythmie particulièrement grave qui peut conduire à la fibrillation ventriculaire, souvent fatale.La TV peut être traitée par ablation par radio-fréquences du substrat arythmogène.La première phase de cette procédure, longue et risquée, est une exploration électrophysiologique (EP) du cœur consistant à déterminer les cibles de cette ablation, notamment en provoquant l'arythmie dans un environnement contrôléDans cette thèse, nous proposons de re-créer in silico cette phase exploratoire, en personnalisation des modèles cardiaques EP.Nous montrons que des informations clefs à propos de la localisation et de l'hétérogénéité de la cicatrice d'infarctus peuvent être obtenues automatiquement par une segmentation d'images tomodensitométriques (TDM) utilisant un réseau de neurones artificiels.Notre but est alors d'utiliser ces informations pour réaliser des simulations spécifiques à un patient de la propagation de l'onde de dépolarisation dans le myocarde, reproduisant la phase exploratoire décrite plus haut.Nous commençons par étudier la relation entre la vitesse de l'onde de dépolarisation et l'épaisseur du ventricule gauche, relation qui permet de personnaliser un modèle EP Eikonal; cette approche permet fr reproduire des cartes d'activations périodiques du ventricule gauche obtenues durant des TV.Nous proposons ensuite des algorithmes efficaces pour détecter l'onde de repolarisation sur les électrogrammes unipolaires (EGU), que nous utilisons pour analyser les EGU contenus dans les enregistrements intra-cardiaques à notre disposition.Grâce à un recalage multimodal entre ces enregistrements et des images TDM, nous établissons des relations entre durées de potentiels d'action (DPA)/propriétés de restitutions de DPA et épaisseur du ventricule gauche.Enfin, ces relations sont utilisés pour paramétrer un modèle de réaction-diffusion capable de reproduire fidèlement les protocoles d'induction des cardiologues interventionnels qui provoquent des TV réalistes et documentées
Acute infarct survival rates have drastically improved over the last decades, mechanically increasing chronic infarct related affections.Among these affections, ischaemic ventricular tachycardia (VT) is a particularly serious arrhythmia that can lead to the often lethal ventricular fibrillation. VT can be treated by radio frequency ablation of the arrhythmogenic substrate.The first phase of this long and risky interventional cardiology procedure is an electrophysiological (EP) exploration of the heart.This phase aims at localising the ablation targets, notably by inducing the arrhythmia in a controlled setting. In this work we propose to re-create this exploration phase in silico, by personalising cardiac EP models.We show that key information about infarct scar location and heterogeneity can be automatically obtained by a deep learning-based automated segmentation of the myocardium on computed tomography (CT) images.Our goal is to use this information to run patient-specific simulations of depolarisation wave propagation in the myocardium, mimicking the interventional cardiology exploration phase.We start by studying the relationship between the depolarisation wave propagation velocity and the left ventricular wall thickness to personalise an Eikonal model, an approach that can successfully reproduce periodic activation maps of the left ventricle recorded during VT.We then propose efficient algorithms to detect the repolarisation wave on unipolar electrograms (UEG), that we use to analyse the UEGs embedded in such intra-cardiac recordings.Thanks to a multimodal registration between these recordings and CT images, we establish relationships between action potential durations/restitution properties and left ventricular wall thickness.These relationships are finally used to parametrise a reaction-diffusion model able to reproduce interventional cardiologists' induction protocols that trigger realistic and documented VTs. inteinterventional cardiologists' induction protocols that trigger realistic and documented VTs
6

Santelli, Julien. "Nanoparticules multimodales à base de lanthanides pour l'imagerie biomédicale et le suivi de cellules mésenchymateuses." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30042/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ces travaux a été de mettre en pratique l'utilisation de nanoparticules multimodales (NPs) à base de lanthanides pour l'imagerie biomédicale en général et le suivi de cellules mésenchymateuses (MSCs) en particulier. Dans cette optique, deux types de NPs ont été utilisées, présentant toutes deux une matrice d'oxysulfure de gadolinium (Gd2O2S) permettant l'imagerie par résonnance magnétique (IRM) et la tomodensitométrie. L'ajout d'éléments dopants apporte des propriétés de fluorescence : l'europium (Gd2O2S :Eu3+), plus adapté à un examen in vitro et le couple ytterbium/thulium (Gd2O2S :Yb3+/Tm3+) à un examen in vivo grâce au phénomène de conversion ascendante de photons (up-conversion). Nous avons, dans un premier temps, démontré la possibilité de visualiser ces NPs au cours du temps au sein d'un organisme vivant par des méthodes complémentaires (IRM et fluorescence). L'étude complète de leur distribution et des voies d'élimination nous a permis de mettre en évidence une métabolisation hépatobiliaire associée à une lente excrétion dans les fèces. Le marquage d'un grand nombre de types cellulaires (lignées et cellules primaires d'espèces différentes) a également mis en avant leur potentiel en tant que traceur cellulaire universel. Nous avons par la suite concentré nos travaux sur le suivi de cellules mésenchymateuses dans un contexte de thérapie cellulaire. La biocompatibilité cellulaire à court, moyen et long terme a été validée par une série d'analyses (MTT, rouge neutre, wound healing, différenciation) et la fiabilité du traceur a été confirmée par l'étude approfondie du marquage cellulaire. Enfin, après mise au point d'un système personnalisé dédié à l'imagerie par up-conversion chez le petit animal, nous avons pu réaliser le suivi de ces cellules marquées, au cours du temps après injection dans un organe solide. Nous avons alors été en mesure de visualiser les MSCs par imagerie multimodale : IRM ; tomodensitométrie et fluorescence par up-conversion. L'ensemble de ces résultats met en avant le potentiel de ces nanoparticules pour l'imagerie à long terme dans des études précliniques et/ou cliniques
The objective of these works was to put into practice the use of lanthanide-based multimodal nanoparticles (NPs) for biomedical imaging in general and mesenchymal cells (MSCs) tracking in particular. To that purpose, two types of NPs have been used, both presenting a gadolinium oxysulfide (Gd2O2S) matrix allowing magnetic resonance imaging (MRI) and computed tomography. The addition of dopant elements brings fluorescence properties: europium (Gd2O2S :Eu3+) is more appropriate for an in vitro examination whereas the combination ytterbium/thulium (Gd2O2S :Yb3+/Tm3+) is more appropriate for an in vivo examination through the up-conversion process. First, we have demonstrated the possibility of visualizing those NPs over-time in a living organism with complementary methods (MRI and fluorescence). The complete study of their biodistribution and ways of elimination allowed us to highlight a hepatobiliary metabolization associated with a slow feces excretion. The labeling of a wide variety of cell types (lines and primary cells from different species) has also pointed out their potential as a universal cell tracer. Thereafter, we focused our research on mesenchymal cells tracking in a cell therapy context. Short, medium and long term biocompatibility was validated via a series of analyses (MTT, neutral red, wound healing and differentiation) and the reliability of the tracer was confirmed by detailed study of the cell labeling. Finally, after developing a custom-made system dedicated to up-conversion imaging in small animals, we were able to perform over-time tracking of those labeled cells after injection in a solid organ. We achieved multimodal imaging of the MSCs with MRI, computed tomography and up-conversion. Altogether, these results underline the potential of these nanoparticles for long term imaging in preclinical and/or clinical studies
7

Torfeh, Tarraf. "Automatisation du contrôle de qualité d'une installation d'imagerie de repositionnement en radiothérapie externe." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00426889.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les imageurs embarqués sur les appareils de traitement par radiothérapie sont des dispositifs très efficaces pour améliorer la précision géométrique des irradiations. Cependant, ils ne sont pertinents que s'ils font l'objet de contrôles de performances précis et réguliers. Notre propos a donc été de développer des solutions logicielles permettant d'automatiser l'analyse des images de contrôle de qualité des principaux modes utilisés en imagerie de repositionnement : le mode 2D-MV qui mesure l'image radiante bidimensionnelle haute énergie transmise par le patient pendant le traitement, les modes 2D-kV (images bidimensionnelles basse énergie) et mode 3D (images tridimensionnelles MV ou kV) qui permettent de réajuster la position du patient avant de traiter. Nous avons également automatisé l'analyse des images du test de Winston & Lutz utilisé pour évaluer la précision mécanique des appareils de traitement sur lesquels s'exercent des contraintes supplémentaires dues au poids supplémentaire de l'imageur embarqué. Enfin nous avons développé et mis en oeuvre une méthodologie originale et performante utilisant des objetstest numériques pour évaluer les performances des solutions logicielles mises au point. Au bilan, l'automatisation des contrôles de qualité des imageurs embarqués avec les solutions logicielles développées dans le cadre de ces travaux de thèse permet de réduire d'un facteur de 100 le temps consacré par l'équipe de physique médicale à l'analyse des résultats des contrôles tout en améliorant leur précision grâce à l'utilisation d'analyses objectives et reproductibles et leur traçabilité grâce à l'édition automatique de rapports de contrôle et d'études statistiques.
8

Bouilhol, Gauthier. "Incertitudes et mouvement dans le traitement des tumeurs pulmonaires : De la radiothérapie à l’hadronthérapie." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0131/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la prise en compte des incertitudes et du mouvement dans le traitement des tumeurs pulmonaires en radiothérapie, que ce soit par photons, par protons ou par ions légers (hadronthérapie). L’accent est mis sur les méthodes de prise en compte du mouvement dites "passives". Ces méthodes, ne nécessitant pas d’asservissement respiratoire pour la délivrance de la dose, sont moins lourdes à mettre en place, et limitent l’introduction de nouvelles sources d’incertitudes. Des contributions cliniques et méthodologiques sont proposées. Tout d’abord, l’imagerie tomodensitométrique (TDM) pour la planification des traitements doit faire l’objet d’une attention particulière dans le cas de tumeurs soumises aux mouvements respiratoires. Nous avons évalué l’influence de la présence d’artéfacts de mouvements dans les images TDM sur la qualité de la planification. Nous avons également proposé des méthodologies et des recommandations pour l’optimisation des paramètres d’acquisition ainsi qu’un algorithme original de détection automatique des artéfacts dans les images TDM 4D. L’une des principales sources d’incertitudes lors de la planification de traitements en radiothérapie concerne la délinéation des volumes cibles. Nous avons évalué la variabilité inter-observateur de délinéation du volume cible macroscopique (GTV) et du volume cible interne (ITV) via une méthode originale permettant de l’intégrer dans le calcul des marges de sécurité. La réduction des incertitudes dues au mouvement respiratoire peut être réalisée en associant au système de contention une compression abdominale afin de limiter l’amplitude du mouvement respiratoire. Nous avons proposé une étude visant à évaluer l’impact de l’utilisation d’un tel système en fonction de la localisation dans le poumon. En radiothérapie par photons, une stratégie appelée mid-position consiste à irradier la tumeur dans sa position moyenne pondérée dans le temps et permet de réduire les marges par rapport à une stratégie ITV tout en conservant une couverture dosimétrique correcte. Une partie du travail de la thèse a consisté à participer à l’élaboration d’une étude clinique visant à comparer les deux stratégies, ITV et mid-position. Dans la plupart des cas, le mouvement respiratoire a une distribution de probabilité non-gaussienne et asymétrique, pouvant invalider la recette de calcul de marges de van Herk pour des mouvements tumoraux fortement asymétriques et de grande amplitude. Nous avons proposé un modèle numérique afin de prendre en compte cette asymétrie. Enfin, la prise en compte du mouvement respiratoire en hadronthérapie par des marges de sécurité doit faire l’objet de considérations spécifiques, en particulier en raison de la sensibilité du dépôt de dose aux variations de densité sur la trajectoire du faisceau. Dans une dernière partie, la définition des marges de sécurité pour prendre en compte le mouvement respiratoire de manière optimale est discutée
This PhD thesis focuses on the uncertainties and motion management in lung radiation therapy and particle therapy. Passive motion management techniques are considered. They consist in delivering the dose without any respiratory beam monitoring which may be difficult to set up or may introduce additional uncertainties. Clinical and methodological contributions about different treatment steps are proposed. First of all, computed tomography (CT) images for treatment planning must be carefully acquired in the presence of respiration-induced tumor motion. We assessed the impact of motion artifacts on the quality of treatment planning. We also proposed methodologies and recommendations about the optimization of 4D-CT acquisition parameters and an original method for automated motion artifact detection in 4D-CT images. Target delineation introduces one of the main source of uncertainties during radiation therapy treatment planning. We quantified inter-observer variations in the delineation of the gross tumor volume (GTV) and the internal target volume (ITV) using an original method in order to incorporate them in margin calculation. Reduction of motion uncertainties can be achieved by combining an abdominal pressure device with the immobilization system to reduce the amplitude of respiratory motion. We proposed a study to evaluate the usefulness of such a device according to the tumor location within the lung. Delivering the dose to the ITV implies an important exposure of healthy tissues along the tumor trajectory. An alternative strategy consists in irradiating the tumor in its time-averaged mean position, the mid-position. Margins are reduced compared with an ITV-based strategy while maintaining a correct tumor coverage. One part of the work consisted in participating in the implementation of a clinical trial in photon radiation therapy to compare the two strategies, ITV and mid-position. In the margin recipe proposed by van Herk, a Gaussian distribution of all combined errors is assumed. In most cases, respiratory motion has an asymmetric non-Gaussian distribution and the assumption may not be valid for strongly asymmetric tumor motions with a large amplitude. We proposed a numerical population-based model to incorporate asymmetry and non-Gaussianity of respiratory motion in margin calculation. Finally, when taking respiratory motion into account in particle therapy with safety margins, one must consider various parameters, particularly the dose deposit sensitivity to density variations. The last part is dedicated to a discussion on the defining of safety margins in order to optimally take into account respiratory motion
9

Viti, Mario. "Automated prediction of major adverse cardiovascular events." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce projet de recherche financé en contrat CIFRE avec GE Healthcare, on cherche a prédire les épisodes cardio-vasculaire adverses majeurs (ECAM), c’est à dire typiquement les embolies et les anévrismes dans l’aorte et les artères coronaires, qui donnent lieu a une respectivement à une interruption catastrophique du flux sanguin vers le coeur et donc un infarctus, ou à une hémorragie interne. Les deux types d’épisodes sont extrêmement graves. Lorsqu’un patient est hospitalisé pour une alerte reliée à ces épisodes, il va subir un examen scanner X, injecté ou non, plus ou moins invasif. Un objectif majeur de cette recherche est d’utiliser au mieux l’information obtenue sous forme d’images 3D ainsi que l’historique du patient pour éviter de soumettre le patient à des examens inutiles, invasifs ou dangereux, tout en garantissant le meilleur résultat clinique. Les méthodologies proposées reposeront sur des techniques d’analyse et traitement d’image, de vision par ordinateur et d’imagerie médicale qui seront développée en partenariat entre GE Healthcare et le laboratoire Centre de Vision Numérique (CVN) de CentraleSupélec
This research project is expected to be financed by a CIFRE scholarship in collaboration between GE Healthcare and CentraleSupelec. We are seeking to predict Major Adverse Cardiovascular Events (MACE). These are typically embolism and aneurisms in the aorta and the coronary arteries, that give rise respectively to interrupted blood flow to the heart and so a risk of infarctus, or major hemorrhage. Both are life-threatening. When a patient is brought to hospital for an alert (angina, etc), they will undergo an X-ray CAT scan, which can be more or less invasive. A major objective of this research is to utilize as well as possible the available information in the form of 3D images together with patient history and other data, in order to avoid needless, invasive, irradiating or dangerous exams, while simultaneously guaranteeing optimal care and the best possible clinical outcome. The proposed methodologies include image analysis, image processing, computer vision and medical imaging procedures and methods, that will be developed in partnership between GE Healthcare and the CVN lab of CENTRALE SUPELEC
10

Vilches, Freixas Gloria. "Dual-energy cone-beam CT for proton therapy." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI099/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La proton thérapie est une modalité de traitement du cancer qu’utilise des faisceaux de protons. Les systèmes de planification de traitement actuels se basent sur une image de l’anatomie du patient acquise par tomodensitométrie. Le pouvoir d’arrêt des protons relatif à l’eau (Stopping Power Ratio en Anglais, SPR) est déterminé à partir des unités Hounsfield (Hounsfield Units en Anglais, HU) pour calculer la dose absorbée au patient. Les protons sont plus vulnérables que les photons aux modifications du SPR du tissu dans la direction du faisceau dues au mouvement, désalignement ou changements anatomiques. De plus, les inexactitudes survenues de la CT de planification et intrinsèques à la conversion HU-SPR contribuent énormément à l’incertitude de la portée des protons. Dans la pratique clinique, au volume de traitement s’ajoutent des marges de sécurité pour tenir en compte ces incertitudes en détriment de perdre la capacité d’épargner les tissus autour de la tumeur. L’usage de l’imagerie bi-énergie en proton thérapie a été proposé pour la première fois en 2009 pour mieux estimer le SPR du patient par rapport à l’imagerie mono-énergie. Le but de cette thèse est d’étudier la potentielle amélioration de l’estimation du SPR des protons en utilisant l’imagerie bi-énergie, pour ainsi réduire l’incertitude dans la prédiction de la portée des protons dans le patient. Cette thèse est appliquée à un nouveau système d’imagerie, l’Imaging Ring (IR), un scanner de tomodensitométrie conique (Cone-Beam CT en Anglais, CBCT) développé pour la radiothérapie guidée par l’image. L’IR est équipé d’une source de rayons X avec un système d’alternance rapide du voltage, synchronisé avec une roue contenant des filtres de différents matériaux que permet des acquisitions CBCT multi-énergie. La première contribution est une méthode pour calibrer les modèles de source et la réponse du détecteur pour être utilisés en simulations d’imagerie X. Deuxièmement, les recherches ont évalué les facteurs que peuvent avoir un impact sur les résultats du procès de décomposition bi-énergie, dès paramètres d’acquisition au post-traitement. Les deux domaines, image et basée en la projection, ont été minutieusement étudiés, avec un spéciale accent aux approches basés en la projection. Deux nouvelles bases de décomposition ont été proposées pour estimer le SPR, sans avoir besoin d’une variable intermédiaire comme le nombre atomique effectif. La dernière partie propose une estimation du SPR des fantômes de caractérisation tissulaire et d’un fantôme anthropomorphique à partir d’acquisitions avec l’IR. Il a été implémentée une correction du diffusé, et il a été proposée une routine pour interpoler linéairement les sinogrammes de basse et haute énergie des acquisitions bi-énergie pour pouvoir réaliser des décompositions en matériaux avec données réelles. Les valeurs réconstruits du SPR ont été comparées aux valeurs du SPR expérimentales déterminés avec un faisceau d’ions de carbone
Proton therapy is a promising radiation treatment modality that uses proton beams to treat cancer. Current treatment planning systems rely on an X-ray computed tomography (CT) image of the patient's anatomy to design the treatment plan. The proton stopping-power ratio relative to water (SPR) is derived from CT numbers (HU) to compute the absorbed dose in the patient. Protons are more vulnerable than photons to changes in tissue SPR in the beam direction caused by movement, misalignment or anatomical changes. In addition, inaccuracies arising from the planning CT and intrinsic to the HU-SPR conversion greatly contribute to the proton range uncertainty. In clinical practice, safety margins are added to the treatment volume to account for these uncertainties at the expense of losing organ-sparing capabilities. The use of dual-energy (DE) in proton therapy was first suggested in 2009 to better estimate the SPR with respect to single-energy X-ray imaging. The aim of this thesis work is to investigate the potential improvement in determining proton SPR using DE to reduce the uncertainty in predicting the proton range in the patient. This PhD work is applied to a new imaging device, the Imaging Ring (IR), which is a cone-beam CT (CBCT) scanner developed for image-guided radiotherapy (IGRT). The IR is equipped with a fast kV switching X-ray source, synchronized with a filter wheel, allowing for multi-energy CBCT imaging. The first contribution of this thesis is a method to calibrate a model for the X-ray source and the detector response to be used in X-ray image simulations. It has been validated experimentally on three CBCT scanners. Secondly, the investigations have evaluated the factors that have an impact on the outcome of the DE decomposition process, from the acquisition parameters to the post-processing. Both image- and projection-based decomposition domains have been thoroughly investigated, with special emphasis on projection-based approaches. Two novel DE decomposition bases have been proposed to estimate proton SPRs, without the need for an intermediate variable such as the effective atomic number. The last part of the thesis proposes an estimation of proton SPR maps of tissue characterization and anthropomorphic phantoms through DE-CBCT acquisitions with the IR. A correction for X-ray scattering has been implemented off-line, and a routine to linearly interpolate low-energy and high-energy sinograms from sequential and fast-switching DE acquisitions has been proposed to perform DE material decomposition in the projection domain with real data. DECT-derived SPR values have been compared with experimentally-determined SPR values in a carbon-ion beam
11

Xie, Bingqing. "Image-domain material decomposition in spectral photon-counting CT for medical applications." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La décomposition de matériaux est un problème fondamental et primordial dans la tomographie spectrale (sCT—spectral computed tomography) par rayons X basée sur des détecteurs à comptage de photons (PCD—photon counting detector). La présente thèse porte sur le développement de méthodes de décomposition de matériaux en utilisant des informations spectrale et morphologique encodées dans des images sCT multi-énergie. Dans ce cadre, trois méthodes ont été développées. Pour la première méthode, en utilisant la densité de masse limitée, la parcimonie conjointe locale, et le faible rang structurel (DSR) dans le domaine de l'image, nous obtenons une décomposition très précise de matériaux tels que le gadolinium, l'iode et le fer. Les résultats sur les données numériques et physiques du fantôme ont démontré que la méthode DSR proposée conduit à une décomposition plus précise que la méthode pseudo-inverse habituelle avec décomposition en valeur singulière (SVD—singular value decomposition) et la méthode de régularisation parcimonieuse courante avec contrainte de norme L1 (lasso). La deuxième méthode opère par région. Elle consiste à optimiser les matériaux de base en se basant sur la segmentation spatio-énergétique des régions d'intérêt (ROI—regions-of-interests) dans les images sCT, à réduire le bruit en faisant le moyennage des images spatiales multi-énergie, et à effectuer une décomposition fine des matériaux impliquant une matrice de décomposition optimisée, une régularisation du débruitage et une régularisation parcimonieuse. Les résultats sur des données numériques et physiques ont montré que la méthode proposée de décomposition des matériaux ROI par ROI (ROI-wise—region-of-interests-wise) présente une fiabilité et une précision nettement supérieures à celles des méthodes de décomposition courantes fondées sur la régularisation de la variation totale (TV) ou de la norme L1. Dans la troisième méthode, nous proposons la notion d'imagerie sCT à super-résolution énergétique (SER—super-energy-resolution), qui est réalisée en établissant la relation entre la simulation et les fantômes physiques au moyen d'un apprentissage par dictionnaire couplé, de manière pixel par pixel. L'efficacité de ces méthodes proposées a été validée sur des données de fantômes numériques, de fantômes physiques et in vivo. Les résultats montrent que, pour la même méthode de décomposition de matériaux utilisant la régularisation par lasso, l'imagerie à super-résolution énergétique proposée présente une précision de décomposition et un pouvoir de détection beaucoup plus élevé que ce que peut fournir la machine sCT actuelle
Material decomposition is a fundamental and primordial problem in spectral photon-counting X-ray CT (sCT). The present thesis focuses on the development of material decomposition methods using spectral and morphological information embedded in multi-energy sCT images. In this framework, three methods were developed. For the first method, by using bounded mass density, local joint sparsity and structural low-rank (DSR) in image domain, we achieve highly accurate decomposition of materials such as gadolinium, iodine and iron. The results on both numerical phantom and physical data demonstrated that the proposed DSR method leads to more accurate decomposition than usual pseudo-inverse method with singular value decomposition (SVD) and current popular sparse regularization method with L1-norm constraint. The second method works in a region-wise manner. It consists in optimizing basis materials based on spatio-energy segmentation of regions-of-interests (ROIs) in sCT images, reducing noise by averaging multi-energy spatial images, and performing a fine material decomposition involving optimized decomposition matrix, denoising regularization and sparsity regularization. The results on both digital and physical data showed that the proposed ROI-wise material decomposition method presents clearly higher reliability and accuracy compared to common decomposition methods based on total variation (TV) or L1-norm (lasso) regularization. In the third method, we propose the notion of super-energy-resolution (SER) sCT imaging, which is realized through establishing the relationship between simulation and physical phantoms by means of coupled dictionary learning in a pixel-wise way. The effectiveness of the proposed methods was validated on digital phantom, physical phantoms and in vivo data. The results showed that for the same decomposition method using lasso regularization, the proposed super-energy-resolution imaging presents much higher decomposition accuracy and detection ability compared to what can be provided by current sCT machine
12

La, Barbera Giammarco. "Learning anatomical digital twins in pediatric 3D imaging for renal cancer surgery." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cancers rénaux pédiatriques représentent 9% des cancers pédiatriques avec un taux de survie de 9/10 au prix de la perte d'un rein. La chirurgie d'épargne néphronique (NSS, ablation partielle du rein) est possible si le cancer répond à des critères précis (sur le volume et la localisation de la lésion). L'indication de la NSS repose sur l'imagerie préopératoire, en particulier la tomodensitométrie à rayons X (CT). Si l'évaluation de tous les critères sur des images 2D n'est pas toujours facile, les modèles 3D spécifiques au patient offrent une solution prometteuse. La construction de modèles 3D de l'anatomie rénale à partir de la segmentation est développée chez les adultes mais pas chez les enfants. Il existe un besoin de méthodes de traitement d'images dédiées aux patients pédiatriques en raison des spécificités de ces images, comme l'hétérogénéité de la forme et de la taille des structures. De plus, dans les images CT, l'injection d'un produit de contraste est souvent utilisée (ceCT) pour faciliter l'identification de l'interface entre les différents structures mais cela peut conduire à une hétérogénéité dans le contraste de certaines structures anatomiques, même parmi les patients acquis avec la même procédure. Le premier objectif de cette thèse est d'effectuer une segmentation des organes/tumeurs à partir d'images ceCT, à partir de laquelle un modèle 3D sera dérivé. Des approches d'apprentissage par transfert (des données d'adultes aux images d'enfants) sont proposées. La première question consiste à savoir si de telles méthodes sont réalisables, malgré la différence structurelle évidente entre les ensembles de données. Une deuxième question porte sur la possibilité de remplacer les techniques standard d’augmentation des données par des techniques d’homogénéisation des données utilisant des "Spatial Transformer Networks", améliorant ainsi le temps d’apprentissage, la mémoire requise et les performances. La segmentation de certaines structures anatomiques dans des images ceCT peut être difficile à cause de la variabilité de la diffusion du produit de contraste. L'utilisation combinée d'images CT sans contrast (CT) et ceCT atténue cette difficulté, mais au prix d'une exposition doublée aux rayonnements. Le remplacement d'une des acquisitions CT par des modèles génératifs permet de maintenir les performances de segmentation, en limitant les doses de rayons X. Un deuxième objectif de cette thèse est de synthétiser des images ceCT à partir de CT et vice-versa, à partir de bases d'apprentissage d'images non appariées, en utilisant une extension du "Cycle Generative Adversarial Network". Des contraintes anatomiques sont introduites en utilisant le score d'un "Self-Supervised Body Regressor", améliorant la sélection d'images anatomiquement appariées entre les deux domaines et renforçant la cohérence anatomique. Un troisième objectif de ce travail est de compléter le modèle 3D d'un patient atteint d'une tumeur rénale en incluant également les artères, les veines et les uretères. Une étude approfondie et une analyse comparative de la littérature sur la segmentation des structures tubulaires anatomique sont présentées. En outre, nous présentons pour la première fois l'utilisation de la fonction de ''vesselness'' comme fonction de perte pour l'entraînement d'un réseau de segmentation. Nous démontrons que la combinaison de l’information sur les valeurs propres avec les informations structurelles d’autres fonctions de perte permet d’améliorer les performances. Enfin, nous présentons un outil développé pour utiliser les méthodes proposées dans un cadre clinique réel ainsi qu'une étude clinique visant à évaluer les avantages de l'utilisation de modèles 3D dans la planification préopératoire. L'objectif à terme de cette recherche est de démontrer, par une évaluation rétrospective d'experts, comment les critères du NSS sont plus susceptibles d'être trouvés dans les images 3D que dans les images 2D. Cette étude est toujours en cours
Pediatric renal cancers account for 9% of pediatric cancers with a 9/10 survival rate at the expense of the loss of a kidney. Nephron-sparing surgery (NSS, partial removal of the kidney) is possible if the cancer meets specific criteria (regarding volume, location and extent of the lesion). Indication for NSS is relying on preoperative imaging, in particular X-ray Computerized Tomography (CT). While assessing all criteria in 2D images is not always easy nor even feasible, 3D patient-specific models offer a promising solution. Building 3D models of the renal tumor anatomy based on segmentation is widely developed in adults but not in children. There is a need of dedicated image processing methods for pediatric patients due to the specificities of the images with respect to adults and to heterogeneity in pose and size of the structures (subjects going from few days of age to 16 years). Moreover, in CT images, injection of contrast agent (contrast-enhanced CT, ceCT) is often used to facilitate the identification of the interface between different tissues and structures but this might lead to heterogeneity in contrast and brightness of some anatomical structures, even among patients of the same medical database (i.e., same acquisition procedure). This can complicate the following analyses, such as segmentation. The first objective of this thesis is to perform organ/tumor segmentation from abdominal-visceral ceCT images. An individual 3D patient model is then derived. Transfer learning approaches (from adult data to children images) are proposed to improve state-of-the-art performances. The first question we want to answer is if such methods are feasible, despite the obvious structural difference between the datasets, thanks to geometric domain adaptation. A second question is if the standard techniques of data augmentation can be replaced by data homogenization techniques using Spatial Transformer Networks (STN), improving training time, memory requirement and performances. In order to deal with variability in contrast medium diffusion, a second objective is to perform a cross-domain CT image translation from ceCT to contrast-free CT (CT) and vice-versa, using Cycle Generative Adversarial Network (CycleGAN). In fact, the combined use of ceCT and CT images can improve the segmentation performances on certain anatomical structures in ceCT, but at the cost of a double radiation exposure. To limit the radiation dose, generative models could be used to synthesize one modality, instead of acquiring it. We present an extension of CycleGAN to generate such images, from unpaired databases. Anatomical constraints are introduced by automatically selecting the region of interest and by using the score of a Self-Supervised Body Regressor, improving the selection of anatomically-paired images between the two domains (CT and ceCT) and enforcing anatomical consistency. A third objective of this work is to complete the 3D model of patient affected by renal tumor including also arteries, veins and collecting system (i.e. ureters). An extensive study and benchmarking of the literature on anatomic tubular structure segmentation is presented. Modifications to state-of-the-art methods for our specific application are also proposed. Moreover, we present for the first time the use of the so-called vesselness function as loss function for training a segmentation network. We demonstrate that combining eigenvalue information with structural and voxel-wise information of other loss functions results in an improvement in performance. Eventually, a tool developed for using the proposed methods in a real clinical setting is shown as well as a clinical study to further evaluate the benefits of using 3D models in pre-operative planning. The intent of this research is to demonstrate through a retrospective evaluation of experts how criteria for NSS are more likely to be found in 3D compared to 2D images. This study is still ongoing
13

Yu, Boliang. "3D analysis of bone ultra structure from phase nano-CT imaging." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI016/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse était de quantifier le réseau lacuno-canaliculaire du tissu osseux à partir d’images 3D acquises en nano CT synchrotron de phase. Ceci a nécessité d’optimiser les processus d’acquisition et de reconstruction de phase, ainsi que de développer des méthodes efficaces de traitement d'images pour la segmentation et l’analyse 3D. Dans un premier temps, nous avons étudié et évalué différents algorithmes de reconstruction de phase. Nous avons étendu la méthode de Paganin pour plusieurs distances de propagation et l’avons évaluée et comparée à d’autres méthodes, théoriquement puis sur nos données expérimentales Nous avons développé une chaine d’analyse, incluant la segmentation des images et prenant en compte les gros volumes de données à traiter. Pour la segmentation des lacunes, nous avons choisi des méthodes telles que le filtre médian, le seuillage par hystérésis et l'analyse par composantes connexes. La segmentation des canalicules repose sur une méthode de croissance de région après rehaussement des structures tubulaires. Nous avons calculé des paramètres de porosité, des descripteurs morphologiques des lacunes ainsi que des nombres de canalicules par lacune. Par ailleurs, nous avons introduit des notions de paramètres locaux calculés dans le voisinage des lacunes. Nous avons obtenu des résultats sur des images acquises à différentes tailles de voxel (120nm, 50nm, 30nm) et avons également pu étudier l’impact de la taille de voxel sur les résultats. Finalement ces méthodes ont été utilisées pour analyser un ensemble de 27 échantillons acquis à 100 nm dans le cadre du projet ANR MULTIPS. Nous avons pu réaliser une analyse statistique pour étudier les différences liées au sexe et à l'âge. Nos travaux apportent de nouvelles données quantitatives sur le tissu osseux qui devraient contribuer à la recherche sur les mécanismes de fragilité osseuse en relation avec des maladies comme l’ostéoporose
Osteoporosis is a bone fragility disease resulting in abnormalities in bone mass and density. In order to prevent osteoporotic fractures, it is important to have a better understanding of the processes involved in fracture at various scales. As the most abundant bone cells, osteocytes may act as orchestrators of bone remodeling which regulate the activities of both osteoclasts and osteoblasts. The osteocyte system is deeply embedded inside the bone matrix and also called lacuno-canalicular network (LCN). Although several imaging techniques have recently been proposed, the 3D observation and analysis of the LCN at high spatial resolution is still challenging. The aim of this work was to investigate and analyze the LCN in human cortical bone in three dimensions with an isotropic spatial resolution using magnified X-ray phase nano-CT. We performed image acquisition at different voxel sizes of 120 nm, 100 nm, 50 nm and 30 nm in the beamlines ID16A and ID16B of the European Synchrotron Radiation Facility (ESRF - European Synchrotron Radiation Facility - Grenoble). Our first study concerned phase retrieval, which is the first step of data processing and consists in solving a non-linear inverse problem. We proposed an extension of Paganin’s method suited to multi-distance acquisitions, which has been used to retrieve phase maps in our experiments. The method was compared theoretically and experimentally to the contrast transfer function (CTF) approach for homogeneous object. The analysis of the 3D reconstructed images requires first to segment the LCN, including both the segmentation of lacunae and of canaliculi. We developed a workflow based on median filter, hysteresis thresholding and morphology filters to segment lacunae. Concerning the segmentation of canaliculi, we made use of the vesselness enhancement to improve the visibility of line structures, the variational region growing to extract canaliculi and connected components analysis to remove residual noise. For the quantitative assessment of the LCN, we calculated morphological descriptors based on an automatic and efficient 3D analysis method developed in our group. For the lacunae, we calculated some parameters like the number of lacunae, the bone volume, the total volume of all lacunae, the lacunar volume density, the average lacunae volume, the average lacunae surface, the average length, width and depth of lacunae. For the canaliculi, we first computed the total volume of all the canaliculi and canalicular volume density. Moreover, we counted the number of canaliculi at different distances from the surface of each lacuna by an automatic method, which could be used to evaluate the ramification of canaliculi. We reported the statistical results obtained on the different groups and at different spatial resolutions, providing unique information about the organization of the LCN in human bone in three dimensions
14

Nguyen, Ho Quang. "Material-driven mesh derived from medical images for biomechanical system : application on modeling of the lumbar spine." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2313.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La lombalgie est un problème de santé commun qui touche une grande partie de la population des pays industrialisés. Au cours des années, la modélisation numérique a été largement étudiée pour étudier la biomécanique du rachis lombaire pour aider fortement les cliniciens dans le diagnostic et les traitements de cette pathologie. Ce travail présente une méthodologie pour la modélisation éléments finis spécifique au patient prenant en compte à la fois la géométrie individualisée et les propriétés des matériaux des structures biologiques. Dans cette étude, le maillage est piloté par des connaissances des matériaux personnalisées qui sont extraites de l'imagerie médicale avancée. En outre, un logiciel convivial comprenant du traitement d'images, des maillages « material-driven » et de l'affectation des propriétés des matériaux, nommé C3M pour le «Computed Material-driven Mesh Model», a été développé pour générer efficacement des modèles FE spécifiques aux sujets à partir d'images médicales. Ce procédé est appliqué pour générer un modèle FE spécifique au patient du rachis lombaire à partir d'images issues par Résonance Magnétique (IRM) ou par tomodensitométrie 3D (CT). Cette approche ouvre une nouvelle perspective pour améliorer le processus de maillage à l'aide de connaissances du matériel dérivées d'images médicales. Le modèle proposé permet un assemblage précis et simple de vertèbres et des disques intervertébraux en tenant en compte à la fois la géométrie et les propriétés mécaniques des matériaux reflétant la spécificité du patient
Low back pain is a common health problem which impacts a large part of the population in industrialized countries. Over the years, numerical modeling has been widely studied to investigate the biomechanics of lumbar spine for strongly assisting clinicians in diagnosis and treatments of this spinal pathology. In recent years, there has been a growing interest in researching and developing patient specific computer modeling which has proven its ability to provide great promises for developing realistic model of individual subject. However, still the specificity of these models is not fully described or is often limited to patient geometry. In fact, few models consider appropriate material properties derived from tissue characterization obtained from medical images. Furthermore, patient specific models can be obtained with geometry and mechanical properties derived from CT, but few from MRI which is well-suited for examining soft tissues. Therefore, development of the high-fidelity, patient-specific finite element model of the lumbar spine still presents the challenge. In this context of patient-specific finite element modeling, mesh generation is a crucial issue which requires an accurate representation of the geometry with well-shaped and sized elements and a relevant distribution of materials. This work presents a methodology for patient-specific finite element modeling which takes both individualized geometry and material properties of biological structures into consideration. In this study, the mesh is driven by personalized material knowledge which is extracted from advanced medical imaging. Additionally, a user-friendly program including image processing, material-driven meshing and material properties assignment, named C3M for “Computed Material-driven Mesh Model”, has been developed to generate efficiently subject-specific FE models derived from medical images. This process is applied to generate a patient specific FE model of lumbar spine based on both MRI and CT images. This approach opens a new direction to improve the meshing process using material knowledge derived from medical images. The proposed model allows an accurate and straightforward assembly of vertebrae and IVDs considering both geometry and material properties reflecting patient-specificity
15

Hohweiller, Tom. "Méthodes de décomposition non-linéaire pour l'imagerie X spectrale." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles. Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un \textit{a priori} sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an \textit{a priori} of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype
16

Dillenseger, Jean-Philippe. "Imagerie préclinique multimodale chez le petit animal : qualification des instruments et des méthodes (IRM, µTDM et µTEMP)." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD026/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’imagerie préclinique se pratique majoritairement sur des modèles animaux murins principalement des souris (61%), elle représente une étape indispensable en recherche préclinique car elle suit les deux premières recommandations de la règle des 3R (réduction, raffinement et remplacement). Pour donner une signification biologique aux mesures extraites des images acquises in vivo chez la souris, il est nécessaire d’évaluer les performances des instruments utilisés mais également des procédures expérimentales en jeu. La qualification des appareils nécessite l’usage de fantômes spécifiques, et l’évaluation des méthodes impose de tester les procédures sur des individus non pathologiques, avant le passage aux expérimentations proprement dites. L’objectif de ce travail a été de développer des outils et des méthodes permettant de qualifier les instruments d’imagerie et certaines procédures in vivo. La nécessité de quantification, à partir d’images réalisées chez le petit animal, nous amène à considérer les instruments d’imagerie préclinique comme des outils métrologiques ; ce qui amène à intégrer le principe d’incertitude de mesure dans l’expression des résultats
Preclinical imaging is mostly performed on mouse animal models (61%). It is a necessary step in preclinical research, in compliance the first two recommendations of the 3Rs rules (reduction, refinement and replacement). In order to give a biological significance to measurements extracted from in vivo-acquired mouse images, it is necessary to evaluate instruments performances but also experimental procedures involved. The qualification of apparatuses requires the use of specific phantoms while the evaluation of methods requires procedures tests on non-pathological animals before experimentations. The scope of this work was to develop tools and methods to qualify imaging instruments and in vivo procedures. The need for quantification in small animal imaging, leads us to consider preclinical imaging instruments as metrological tools; which means integrating measurement uncertainty into
17

Chevalier, Frédéric. "Le diagnostic assisté par ordinateur de l'image tomodensitométrique : étude de paramètres adaptés." Paris 12, 1991. http://www.theses.fr/1991PA120036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le nombre important d'anomalies non detectees sur les images radiologiques medicales et leur complexite croissante montrent la necessite d'une aide au diagnostic qui pourrait etre apportee par l'ordinateur. L'assistance peut intervenir aux deux niveaux du diagnostic: la perception de l'anomalie au cours de la lecture de l'image et l'interpretation de ce qui a ete observe. La faisabilite de systemes d'analyse des images tomodensitometriques est montree. Les methodes de parametrisation utilisees sont soit statistiques: analyse de l'histogramme (detection des tumeurs vertebrales par modele de comparaison), analyse de texture (par matrice de concurrence); soit morphologique: detection de l'osteoporose par squelettisation du corps vertebral. Une possibilite d'information temporelle et fonctionnelle est egalement etudiee par application de la cinedensigraphie par scanner x, a la detection des fibroses pulmonaires. Le diagnostic assiste par ordinateur est une etape fondamentale vers l'automatisation, dont la mise en uvre fait apparaitre de nombreuses exigences techniques et cliniques
18

Marache-Francisco, Simon. "Évaluation de la correction du mouvement respiratoire sur la détection des lésions en oncologie TEP." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00770662.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie par émission de positons (TEP) est une méthode d'imagerie clinique en forte expansion dans le domaine de l'oncologie. De nombreuses études cliniques montrent que la TEP permet, d'une part de diagnostiquer et caractériser les lésions cancéreuses à des stades plus précoces que l'imagerie anatomique conventionnelle, et d'autre part d'évaluer plus rapidement la réponse au traitement. Le raccourcissement du cycle comprenant le diagnostic, la thérapie, le suivi et la réorientation thérapeutiques contribue à augmenter le pronostic vital du patient et maîtriser les coûts de santé. La durée d'un examen TEP ne permet pas de réaliser une acquisition sous apnée. La qualité des images TEP est par conséquent affectée par les mouvements respiratoires du patient qui induisent un flou dans les images. Les effets du mouvement respiratoire sont particulièrement marqués au niveau du thorax et de l'abdomen. Plusieurs types de méthode ont été proposés pour corriger les données de ce phénomène, mais elles demeurent lourdes à mettre en place en routine clinique. Des travaux récemment publiés proposent une évaluation de ces méthodes basée sur des critères de qualité tels que le rapport signal sur bruit ou le biais. Aucune étude à ce jour n'a évalué l'impact de ces corrections sur la qualité du diagnostic clinique. Nous nous sommes focalisés sur la problématique de la détection des lésions du thorax et de l'abdomen de petit diamètre et faible contraste, qui sont les plus susceptibles de bénéficier de la correction du mouvement respiratoire en routine clinique. Nos travaux ont consisté dans un premier temps à construire une base d'images TEP qui modélisent un mouvement respiratoire non-uniforme, une variabilité inter-individuelle et contiennent un échantillonnage de lésions de taille et de contraste variable. Ce cahier des charges nous a orientés vers les méthodes de simulation Monte Carlo qui permettent de contrôler l'ensemble des paramètres influençant la formation et la qualité de l'image. Une base de 15 modèles de patient a été créée en adaptant le modèle anthropomorphique XCAT sur des images tomodensitométriques (TDM) de patients. Nous avons en parallèle développé une stratégie originale d'évaluation des performances de détection. Cette méthode comprend un système de détection des lésions automatisé basé sur l'utilisation de machines à vecteurs de support. Les performances sont mesurées par l'analyse des courbes free-receiver operating characteristics (FROC) que nous avons adaptée aux spécificités de l'imagerie TEP. L'évaluation des performances est réalisée sur deux techniques de correction du mouvement respiratoire, en les comparant avec les performances obtenues sur des images non corrigées ainsi que sur des images sans mouvement respiratoire. Les résultats obtenus sont prometteurs et montrent une réelle amélioration de la détection des lésions après correction, qui approche les performances obtenues sur les images statiques.
19

Rani, Kaddour. "Stratégies d’optimisation des protocoles en scanographie pédiatrique." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0282/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis le début des années soixante-dix, le nombre de scanners par hôpitaux n’a fait qu’augmenter et leur utilisation est de plus en plus fréquente. Même si cette technique permet de donner des informations cliniques précieuses, elle a un revers qui est l’exposition du patient à des rayonnements ionisants. La sensibilité des enfants aux rayonnements est plus grande que celle des adultes, les enfants ont une espérance de vie importante et ont donc plus de risques de développer des cancers dans le futur. Il y a donc nécessité de tenter de réduire la dose au patient. Cette thèse vise donc à développer des stratégies d’optimisation sur les protocoles cliniques en utilisant des méthodes de simulation et de modélisation permettant de comprendre l’influence des paramètres des protocoles sur les indicateurs de qualité d’image et sur la dose délivrée au patient. Ce travail se divise en quatre parties: La première partie porte sur la modélisation de l’influence des paramètres des protocoles scanographiques sur deux indicateurs de qualité d’image et un indicateur de dose en utilisant la méthodologie des plans d’expériences. La seconde partie traite du développement d’un Protocole Générique Optimisé (PGO) pour la région de l’abdomen. A partir des données des modèles développés, un PGO recalculé pour cinq morphologies de patients pédiatriques et pour quatre modèles de scanners a été réalisé. L’ensemble des résultats, ont permis le développement d’un outil d’aide à l’optimisation permettant à l’utilisateur de générer un protocole optimisé en fonction du modèle de scanner et de la morphologie du patient
For the last 10-years, computed tomography (CT) procedures and their increased use have been a major source for concern in the scientific community. This concern has been the starting point for several studies aiming to optimize the dose while maintaining a diagnostic image quality. In addition, it is important to pay special attention to dose levels for children (age range considered to be from a newborn baby to a 16-y-old patient). Indeed, children are more sensitive to ionizing radiations, and they have a longer life expectancy. Optimizing the CT protocols is a very difficult process due to the complexity of the acquisition parameters, starting with the individual patient characteristics, taking into account the available CT device and the required diagnostic image quality. This PhD project is contributing to the advancement of knowledge by: (1) Developing a new approach that can minimize the number of testing CT scans examinations while developing a predictive mathematical model allowing radiologists to prospectively anticipate how changes in protocols will affect the image quality and the delivered dose for four models of CT scan. (2) Setting-up a Generic Optimized Protocol (based on the size of the phantom CATPAHN 600) for four models of CT scan. (3) Developing a methodology to adapt the GOP to five sizes of pediatric patient using Size Specific Dose Estimate calculation (SSDE). (4) Evaluating subjective and objective image quality between size-based optimised CT protocol and age-based CT protocols. (5) Developing a CT protocol optimization tool and a tutorial helping the radiologists in the process of optimization
20

Lesage, David. "Modèles, primitives et méthodes de suivi pour la segmentation vasculaire : application aux coronaires en imagerie tomodensitométrique 3D." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005908.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation des structures vasculaires dans les images médicales est une étape complexe mais fondamentale pour l'aide au diagnostic et au traitement. Dans ce contexte, les techniques de traitement d'images facilitent la tâche des experts médicaux en minimisant les interactions manuelles tout en réduisant la variabilité inter-opérateurs. Nous présentons tout d'abord un état de l'art des méthodes de segmentation vasculaire 3D organisé suivant trois axes: modèles géométriques et d'apparence, primitives extraites des images et schémas d'extraction. Nos travaux se focalisent sur une problématique particulièrement complexe, la segmentation des artères coronaires en imagerie tomodensitométrique 3D. Nous proposons un modèle géométrique axial, évalué dans l'image grâce à une primitive fondée sur le flux de gradient à fort pouvoir discriminant et faible coût calculatoire. Nous dérivons ensuite un modèle bayésien récursif appris de façon non paramétrique sur une base de segmentations manuelles. Nous proposons enfin deux schémas d'extraction. Le premier met en œuvre une procédure d'optimisation discrète sur graphe fondée sur la propagation de chemins minimaux 4D (position spatiale 3D de l'axe vasculaire plus rayon associé). Il exploite une nouvelle métrique cumulative dérivée de notre modèle bayésien. Notre deuxième schéma repose sur une approche de suivi stochastique par méthode de Monte-Carlo séquentielle estimant la distribution a posteriori de notre modèle bayésien. Une attention particulière est donnée à la robustesse et l'efficacité calculatoire de nos algorithmes. Ceux-ci sont évalués qualitativement et quantitativement sur une base de données cliniques de grande taille.
21

Khellaf, Feriel. "List-mode proton CT reconstruction." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thérapie proton est utilisée dans le cadre du traitement contre le cancer afin de parvenir à une meilleure distribution de dose en exploitant les propriétés du proton. Les systèmes de planification de thérapie proton requièrent une carte du pouvoir d’arrêt des tissus du patient afin de pouvoir calculer la dose absorbée. En clinique, cette image est générée à partir d’une conversion des unités Hounsfield d’une image tomodensitométrique (CT) rayons X au pouvoir d’arrêt relatif (RSP) du proton. Cette calibration induit des incertitudes étant donné que les interactions physiques des photons et des protons sont différentes, ce qui va mener à l’utilisation de marges de sécurité et à la réduction de la conformité de dose. Afin de réduire ces incertitudes, l’imagerie proton CT a été proposée pour la planification de la thérapie proton puisque la quantité reconstruite est directement le RSP. En plus de la perte d’énergie, les protons interagissent également via la diffusion multiple de Coulomb (MCS) qui induit des trajectoires non linéaires, ce qui rend le problème de reconstruction en proton CT différent de la reconstruction CT rayons X. L’objectif de cette thèse est l’amélioration de la qualité d’image en reconstruction proton CT en mode liste. L’utilisation du formalisme du chemin le plus probable (MLP) afin de prendre en compte les effets du MCS a permis d’améliorer la résolution spatiale en proton CT. Ce formalisme suppose un milieu homogène. La première contribution de cette thèse est une étude sur les trajectoires des protons en milieux hétérogènes: la justesse du MLP a été évaluée en comparaison avec un MLP obtenu par simulations Monte Carlo dans différentes configurations. Les résultats en matière de distribution spatiale, angulaire, et énergétique ont été analysés afin d’évaluer l’impact sur l’image reconstruite. La seconde contribution est un filtre rampe directionnel 2D utilisé dans le cadre de la reconstruction proton CT. Il s’agit d’une méthode intermédiaire entre la rétroprojection filtrée et le filtrage de la rétroprojection, basée sur l’extension du filtre rampe en 2D afin de préserver l’information spatiale sur le MLP. Une expression pour une version 2D limitée en bande de fréquence du filtre rampe a été dérivée et testée sur des données pCT simulées. Ensuite, une comparaison de différents algorithmes de reconstruction directs en matière de résolution spatiale et justesse du RSP a été menée. Cinq algorithmes, incluant le filtre rampe directionnel, ont été testés afin de reconstruire différents fantômes. Les résultats obtenus à partir de données acquises avec des détecteurs idéaux ou réalistes ont été comparés. Enfin, la dernière contribution est une méthode de déconvolution qui utilise l’information sur l’incertitude du MLP afin d’améliorer la résolution des images proton CT
Proton therapy is used for cancer treatment to achieve better dose conformity by exploiting the energy-loss properties of protons. Proton treatment planning systems require knowledge of the stopping-power map of the patient’s anatomy to compute the absorbed dose. In clinical practice, this map is generated through a conversion from X-ray computed tomography (CT) Hounsfield units to proton stopping power relative to water (RSP). This calibration generates uncertainties as photon and proton physics are different, which leads to the use of safety margins and the reduction of dose conformity. In order to reduce uncertainties, proton CT (pCT) was proposed as a planning imaging modality since the reconstructed quantity is directly the RSP. In addition to energy loss, protons also undergo multiple Coulomb scattering (MCS) inducing non-linear paths, thus making the pCT reconstruction problem different from that of X-ray CT. The objective of this thesis is to improve image quality of pCT list-mode reconstruction. The use of a most likely path (MLP) formalism for protons to account for the effects of MCS has improved the spatial resolution in pCT. This formalism assumes a homogeneous medium. The first contribution of this thesis is a study on proton paths in heteregeneous media: the accuracy of the MLP was evaluated against a Monte Carlo generated path in different heterogeneous configurations. Results in terms of spatial, angular, and energy distributions were analyzed to assess the impact on reconstruction. The second contribution is a 2D directional ramp filter used for pCT data reconstruction. An intermediate between a filtered backprojection and a backproject-filter approach was proposed, based on the extension of the usual ramp filter to two dimensions, in order to preserve the MLP spatial information. An expression for a band-limited 2D version of the ramp filter was derived and tested on simulated pCT list-mode data. Then, a comparison of direct reconstruction algorithms in terms of spatial resolution and RSP accuracy was conducted. Five algorithms, including the 2D directional ramp, were tested to reconstruct different simulated phantoms. Results were compared between reconstruction from data acquired using idealized or realistic trackers. Finally, the last contribution is a deconvolution method using the information on the MLP uncertainty in order to improve spatial resolution of pCT images
22

Li, Yufei. "Joint super-resolution/segmentation approaches for the tomographic images analysis of the bone micro-structure." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI125/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ostéoporose est une maladie caractérisée par la perte de la masse osseuse et la dégradation de la micro-architecture osseuse. Bien que l'ostéoporose ne soit pas une maladie mortelle, les fractures qu'elle provoque peuvent entraîner de graves complications (lésions des vaisseaux et des nerfs, infections, raideur), parfois accompagnées de menaces de mort. La micro-architecture osseuse joue un rôle important dans le diagnostic de l'ostéoporose. Deux appareils de tomodensitométrie courants pour scanner la micro-architecture osseuse sont la tomodensitométrie quantitative périphérique à haute résolution et la tomodensitométrie microscopique. Le premier dispositif donne accès à l'investigation in vivo, mais sa résolution spatiale est inférieure. Le micro tomodensitomètre donne une meilleure résolution spatiale, mais il est contraint à une mesure ex vivo. Dans cette thèse, notre but est d'améliorer la résolution spatiale des images de tomodensitométrie périphérique à haute résolution afin que l'analyse quantitative des images résolues soit proche de celle donnée par les images de tomodensitométrie Micro. Nous sommes partis de la régularisation de la variation totale, à une combinaison de la variation totale et du potentiel de double puits pour améliorer le contraste des résultats. Ensuite, nous envisageons d'utiliser la méthode d'apprentissage par dictionnaire pour récupérer plus de détails sur la structure. Par la suite, une méthode d'apprentissage approfondi a été proposée pour résoudre un problème de super résolution et de segmentation joint. Les résultats montrent que la méthode d'apprentissage profond est très prometteuse pour les applications futures
Osteoporosis is a disease characterized by loss of bone mass and degradation of bone microarchitecture. Although osteoporosis is not a fatal disease, the fractures it causes can lead to serious complications (damage to vessels and nerves, infections, stiffness), sometimes accompanied with risk of death. The bone micro-architecture plays an important role for the diagnosis of osteoporosis. Two common CT devices to scan bone micro architecture is High resolution-peripheral Quantitative CT and Micro CT. The former device gives access to in vivo investigation, but its spatial resolution is inferior. Micro CT gives better spatial resolution, but it is constrained to ex vivo measurement. In this thesis, we attempt to improve the spatial resolution of high resolution peripheral CT images so that the quantitative analysis of the resolved images is close to the one given by Micro CT images. We started from the total variation regularization, to a combination of total variation and double-well potential to enhance the contrast of results. Then we consider to use dictionary learning method to recover more structure details. Afterward, a deep learning method has been proposed to solve a joint super resolution and segmentation problem. The results show that the deep learning method is very promising for future applications
23

Hanzouli, Houda. "Analyse multi échelle et multi observation pour l'imagerie multi modale en oncologie." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0126/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s’inscrit dans le cadre du développement d’une médecine davantage personnalisée et préventive, pour laquelle la fusion d’informations multi modale et de différentes représentations d'une même modalité sont nécessaires afin d'aboutir à une quantification fiable des images médicales en oncologie. Dans cette étude nous présentons deux applications de traitement et d'analyse des images médicales: le débruitage des images TEP et la détermination des volumes anatomo-fonctionnels des tumeurs en imagerie multi modale TEP/TDM. Pour le débruitage des images TEP, nous avons mis en place une approche intitulée "WCD" permettant de bénéficier des caractéristiques complémentaires de la transformée en ondelettes et la transformée en Curvelets afin de mieux représenter les structures isotropiques et anisotropiques dans ces images, ce qui permet de réduire le bruit tout en minimisant les pertes d'informations utiles dans les images TEP. En ce qui concerne la deuxième application, nous avons proposé une méthode de segmentationTEP/TDM intitulée "WCHMT" permettant d'exploiter la spécificité des arbres de Markov caché de prendre en compte les dépendances statistiques entre l’ensemble des données. Ce modèle permet de gérer simultanément les propriétés complémentaires de l’imagerie fonctionnelle et l’imagerie morphologique dans un cadre unifié où les données sont représentées dans le domaine des Contourlets. Le débruitage en TEP a abouti à une hausse significative du rapport signal sur-bruit (SNR) en garantissant la moindre variation de l'intensité et du contraste local. Quant à la segmentation multimodale TEP/TDM, elle a démontré une bonne précision lors de la détermination du volume tumoral en terme du coefficient de Dice (DSC) avec le meilleur compromis entre la sensibilité (SE) et la valeur prédictive positive (PPV) par rapport à la vérité terrain
This thesis is a part of the development of more personalized and preventive medicine, for which a fusion of multi modal information and diverse representations of the same modality is needed in order to get accurate and reliable quantification of medical images in oncology. In this study we present two applications for image processing analysis: PET denoising and multimodal PET/CT tumor segmentation. The PET filtering approach called "WCD" take benefit from the complementary features of the wavelet and Curvelets transforms in order to better represent isotropic and anisotropic structures in PET images. This algorithm allows the reduction of the noise while minimizing the loss of useful information in PET images. The PET/CT tumor segmentation application is performed through a Markov model as a probabilistic quadtree graph namely a Hidden Markov Tree (HMT).Our motivation for using such a model is to provide fast computation, improved robustness and an effective interpretational framework for image analysis on oncology. Thanks to two efficient aspects (multi observation and multi resolution), when dealing with Hidden Markov Tree (HMT), we exploit joint statistical dependencies between hidden states to handle the whole data stack. This model called "WCHMT" take advantage of the high resolution of the anatomic imaging (CT) and the high contrast of the functional imaging (PET). The denoising approach led to the best trade-off between denoising quality and structure preservation with the least quantitative bias in absolute intensity recovery. PET/CT segmentation's results performed with WCHMT method has proven a reliable segmentation when providing high Dice Similarity Coeffcient (DSC) with the best trade-off between sensitivity (SE) and positive predictive value (PPV)
24

Lian, Chunfeng. "Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2333/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art
Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones
25

Quiñones, Catherine Thérèse. "Proton computed tomography." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI094/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation de protons dans le traitement du cancer est largement reconnue grâce au parcours fini des protons dans la matière. Pour la planification du traitement par protons, l'incertitude dans la détermination de la longueur du parcours des protons provient principalement de l'inexactitude dans la conversion des unités Hounsfield (obtenues à partir de tomographie rayons X) en pouvoir d'arrêt des protons. La tomographie proton (pCT) est une solution attrayante car cette modalité reconstruit directement la carte du pouvoir d'arrêt relatif à l'eau (RSP) de l'objet. La technique pCT classique est basée sur la mesure de la perte d'énergie des protons pour reconstruire la carte du RSP de l'objet. En plus de la perte d'énergie, les protons subissent également des diffusions coulombiennes multiples et des interactions nucléaires qui pourraient révéler d'autres propriétés intéressantes des matériaux non visibles avec les cartes de RSP. Ce travail de thèse a consisté à étudier les interactions de protons au travers de simulations Monte Carlo par le logiciel GATE et d'utiliser ces informations pour reconstruire une carte de l'objet par rétroprojection filtrée le long des chemins les plus vraisemblables des protons. Mise à part la méthode pCT conventionnelle par perte d'énergie, deux modalités de pCT ont été étudiées et mises en œuvre. La première est la pCT par atténuation qui est réalisée en utilisant l'atténuation des protons pour reconstruire le coefficient d'atténuation linéique des interactions nucléaires de l'objet. La deuxième modalité pCT est appelée pCT par diffusion qui est effectuée en mesurant la variation angulaire due à la diffusion coulombienne pour reconstruire la carte de pouvoir de diffusion, liée à la longueur de radiation du matériau. L'exactitude, la précision et la résolution spatiale des images reconstruites à partir des deux modalités de pCT ont été évaluées qualitativement et quantitativement et comparées à la pCT conventionnelle par perte d'énergie. Alors que la pCT par perte d'énergie fournit déjà les informations nécessaires pour calculer la longueur du parcours des protons pour la planification du traitement, la pCT par atténuation et par diffusion donnent des informations complémentaires sur l'objet. D'une part, les images pCT par diffusion et par atténuation fournissent une information supplémentaire intrinsèque aux matériaux de l'objet. D'autre part, dans certains des cas étudiés, les images pCT par atténuation démontrent une meilleure résolution spatiale dont l'information fournie compléterait celle de la pCT par perte d'énergie
The use of protons in cancer treatment has been widely recognized thanks to the precise stopping range of protons in matter. In proton therapy treatment planning, the uncertainty in determining the range mainly stems from the inaccuracy in the conversion of the Hounsfield units obtained from x-ray computed tomography to proton stopping power. Proton CT (pCT) has been an attractive solution as this modality directly reconstructs the relative stopping power (RSP) map of the object. The conventional pCT technique is based on measurements of the energy loss of protons to reconstruct the RSP map of the object. In addition to energy loss, protons also undergo multiple Coulomb scattering and nuclear interactions which could reveal other interesting properties of the materials not visible with the RSP maps. This PhD work is to investigate proton interactions through Monte Carlo simulations in GATE and to use this information to reconstruct a map of the object through filtered back-projection along the most likely proton paths. Aside from the conventional energy-loss pCT, two pCT modalities have been investigated and implemented. The first one is called attenuation pCT which is carried out by using the attenuation of protons to reconstruct the linear inelastic nuclear cross-section map of the object. The second pCT modality is called scattering pCT which is performed by utilizing proton scattering by measuring the angular variance to reconstruct the relative scattering power map which is related to the radiation length of the material. The accuracy, precision and spatial resolution of the images reconstructed from the two pCT modalities were evaluated qualitatively and quantitatively and compared with the conventional energy-loss pCT. While energy-loss pCT already provides the information needed to calculate the proton range for treatment planning, attenuation pCT and scattering pCT give complementary information about the object. For one, scattering pCT and attenuation pCT images provide an additional information intrinsic to the materials in the object. Another is that, in some studied cases, attenuation pCT images demonstrate a better spatial resolution and showed features that would supplement energy-loss pCT reconstructions
26

Bahig, Houda. "Rôle de la tomodensitométrie à double énergie/double source pour la personnalisation des traitements de radiothérapie." Thèse, 2018. http://hdl.handle.net/1866/22541.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography