Tesi sul tema "Analyse d'image médicale"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Analyse d'image médicale.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Analyse d'image médicale".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Dary, Christophe. "Analyse géométrique d'image : application à la segmentation multi-échelle des images médicales". Nantes, 1992. http://www.theses.fr/1992NANT07VS.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Richard, Frédéric. "Modèles et analyses statistiques de l'image biomédicale". Habilitation à diriger des recherches, Université René Descartes - Paris V, 2009. http://tel.archives-ouvertes.fr/tel-00522704.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Louazani, Samir. "Etude par analyse d'image de la désynchronisation d'une culture de cellules cardiaques sous l'influence de digitaliques". Lyon 1, 1998. http://www.theses.fr/1998LYO10190.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nombreuses drogues cardioactives utilisees pour leurs effets anti-arythmiques ou inotropes ont egalement une action sur la conduction entre les cellules du tissu cardiaque (dromotropie). Cet effet est difficile a quantifier directement sur l'organe entier et necessite en general une etude electrophysiologique detaillee au niveau cellulaire. Nous proposons ici une approche du desynchronisme cellulaire sur culture de cellules de rats nouveau-nes contractiles spontanement, par analyse d'images dynamiques sous microscope. Des sequences de 128 images correspondant a plusieurs contractions successives sont acquises et memorisees dans un analyseur. Tout d'abord synchrones, les cultures sont de plus en plus desynchronisees par ajout d'une dose croissante de digitaliques. Pour obtenir un parametre de desynchronisme independant des modifications du rythme induites par la drogue, les images sont traitees globalement, et nous avons exclu toute intervention manuelle de delimitation de zones. De meme, aucune hypothese restrictive n'a ete appliquee aux cellules individuellement (forme, nombre, etc). Les sequences ont ete dans un premier temps traitees par une methode classique de correlation croisee puis par des methodes originales faisant appel aux proprietes statistiques des fonctions de repartition des luminances, calculees a partir d'images derivees temporellement (adaptation de la methode de h. Rix, laboratoire i3s, nice sophia antipolis). Dans ce dernier cas, les resultats du traitement sont presentes sous forme d'images parametriques 3d, facilitant leur interpretation. Quelle que soit la methode employee, les resultats obtenus apres traitement par les differentes methodes sont compares en termes de sensibilite de detection du desynchronisme et de rapidite d'obtention, le but final etant de mettre au point un dispositif de mesure simple et rapide des effets dromotropes d'une drogue cardioactive, a des fins de screening pharmacologique (courbes dose - reponse) en utilisant le modele de cellules en culture en contraction spontanee.
4

Leteneur, Olivier. "Contribution à l'étude et à la réalisation d'une chaîne de reconstruction 3D du ventricule gauche en mouvement, à partir de séquences échocardiographiques sous incidences apicales : proposition d'une méthode analyse locale du mouvement de la paroi ventriculaire". Lille 1, 1997. http://www.theses.fr/1997LIL10108.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude traite de la reconstruction 3D du ventricule gauche à partir de clichés échographiques acquis sous incidences apicales et de l'étude du mouvement des parois du ventricule dans les différents plans apicaux. Le recadrage spatial est tout d'abord étudié. Pour cela nous utilisons une méthode de repérage de la sonde échographique par des mesures stéréoscopiques. Cette méthode implique la réalisation d'une étape de calibration, de localisation et d'étalonnage de la sonde. La reconstruction 3D est ensuite réalisée en transformant les contours apicaux, obtenus manuellement, en coupes parallèles situées dans des plans normaux au grand axe du ventricule. Pour cela un certain nombre d'étapes nécessaires sont étudiées et décrites : recadrage des contours sur l'anneau mitral, synchronisation des séquences sur l'ECG, passage des contours 2D en contour 3D, intersection des contours 3D par des plans parallèles, interpolation des coupes obtenues. Un algorithme de triangulation est ensuite appliqué aux contours parallèles pour la visualisation du ventricule en 3D. Quelques résultats de reconstruction sont présentés. L'étude du mouvement des parois ventriculaires est effectuée dans les plans apicaux en assimilant le déplacement des parois aux variations de la largeur du ventricule. Des résultats du mouvement sont ensuite présentés et comparés à ceux obtenus à partir d'images IRM.
5

Fiot, Jean-Baptiste. "Méthodes mathématiques d'analyse d'image pour les études de population transversales et longitudinales". Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00952079.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En médecine, les analyses de population à grande échelle ont pour but d'obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients. Dans cette thèse, nous présentons d'abord le contexte médical de la maladie d'Alzheimer, rappelons certains concepts d'apprentissage statistique et difficultés rencontrées lors de l'application en imagerie médicale. Dans la deuxième partie, nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel. Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM) permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d'apprentissage de variétés pour l'analyse de formes et d'images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d'imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampes de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l'identification de marqueurs biologiques.
6

Kharboutly, Zaher. "Etude de l'écoulement sanguin dans des fistules artério-veineuses reconstruites à partir d'images médicales". Compiègne, 2007. http://www.theses.fr/2007COMP1692.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour effectuer correctement les séances d'hémodialyse, on doit disposer d'un accès vasculaire avec un fort débit. Les fistules artérioveineuses (FAV) réalisées par chirurgie permettent d'atteindre ce but, mais sont sujettes à de nombreuses pathologies. Afin d'en comprendre les mécanismes, il est nécessaire de connaître les caractéristiques locales de l'écoulement. La vélocimétrie Döppler étant peu précise, nous proposons ici de développer une approche de modélisation biomécanique. Après un rappel de l'état de l'art sur les plans clinique et biomécanique, différentes méthodes de reconstruction volumique à partir de CT-scan sont décrites. Après optimisation, nous nous focalisons ensuite sur la simulation et l'analyse de l'écoulement sanguin dans une FAV simplifiée. Les simulations sont ensuite validées par une confrontation avec des mesures expérimentales. Enfin, la méthodologie est appliquée à deux fistules réelles, afin d'en tirer des enseignements sur le plan de la physiopathologie
During the haemodialysis session, the blood is purified through an extracorporeal artificial kidney. High flow in the surgically created vascular access, arterio-venous fistula AVF, leads to a successful blood suction and reinjection. In order to understand the relation between the blood flow dynamics and the physiopathology, it is necessary to understand its characteristics in these vessels. Clinically it is possible to measure blond vectors using the colour echo Doppler. Nevertheless this method is has its limitations. Therefore we propose to use biomechanical model. In this work we have studied blood flow dynamics in patient specific AVF. The principal object was to define and validate a robust methodology capable of simulating blood flow in the AVF reconstructed from clinical examinations
7

Risser, Laurent. "Analyse quantitative de réseaux micro-vasculaires intra-corticaux". Toulouse 3, 2007. http://www.theses.fr/2007TOU30011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse développe une étude quantitative du réseau micro-vasculaire intra-cortical obtenu à partir d'une méthode originale d'imagerie micro-tomographique possédant une résolution micrométrique sur toute l'épaisseur de la substance grise. La première partie de la thèse concerne le traitement des images 3D de très grosse taille provenant de différents types de cortex sains et tumoraux chez le rat et le primate. Des méthodes classiques sont utilisées pour binariser et squelettiser les images. L'influence du protocole expérimental sur les données obtenues est évalué. Une méthode originale et performante de raccordement des vaisseaux mal injectés est proposée, développée, validée et testée. La deuxième partie de la thèse concerne l'analyse statistique des réseaux micro-vasculaires. Nous distinguons l'analyse géométrique, l'analyse locale et l'analyse topologique. L'analyse géométrique décrit la répartition spatiale micro-vasculaire à travers l'étude de la densité vasculaire et de la distance tissu/vaisseau. La nature multi-échelle de cette répartition spatiale a été mise en évidence par des analyses spectrales et fractales. Les volumes élémentaires représentatifs associés à cette répartition ont été évalués, et des différences significatives entre tissu sains et tumeurs ont été mesurées. L'analyse locale des longueurs de vaisseaux exhibe systématiquement une distribution exponentielle très nette qui met en évidence une longueur caractéristique pour chaque tissu analysé. Ces longueurs caractéristiques sont significativement différentes entre primates adultes et nouveaux nés. Ces résultats corroborent l'analyse effectuée sur les densités vasculaires et font émerger le schéma d'une maturation vasculaire développementale essentiellement associée à la croissance du lit capillaire. .
This work is a quantitative investigation of intra-cortical micro-vascular networks using a new micro-tomography imaging protocol which permits a complete scan of the entire gray matter with a micron resolution. The first part of the PhD is devoted to the analysis of very large 3D images coming from healthy rats and marmosets primate cortex, as well as tumour implanted rats brains. Classical methods are used for binarisation and squeletonization of the images. The influence of the experimental protocol on the obtained images is evaluated. A fast and original method is proposed to fill the gaps of incompletely injected vessels the efficiency of which is tested and validated. The second part of the PhD is concerned by the statistical analysis of geometrical, local and topological properties of micro-vascular networks. Geometrical properties are related to the spatial distribution of vessels from studying the vascular density and the vessel/tissue distance map. We brought to the fore the multi-scale properties of those fields from fractal and spectral analysis up to a some cut-off which defines the typical length-scale of an elementary representative volume. We found that this length-scale significantly differ in normal and tumoral tissues. The local analysis of vessel's segment length systematically exhibits exponential distribution, which leads to some characteristic segments length. Those length significantly differ in adult and new-born primates tissues. This analysis is consistent with the result obtained on the vascular density and leads to the conclusion that developmental angiogenesis occurs mainly at the capillary scale. .
8

Moles, Lopez Xavier. "Characterization and Colocalization of Tissue-Based Biomarker Expression by Quantitative Image Analysis: Development and Extraction of Novel Features". Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209330.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Proteins are the actual actors in the (normal or disrupted) physiological processes and immunohistochemistry (IHC) is a very efficient mean of visualizing and locating protein expression in tissue samples. By comparing pathologic and normal tissue, IHC is thus able to evidence protein expression alterations. This is the reason why IHC plays a grow- ing role to evidence tissue-based biomarkers in clinical pathology for diagnosing var- ious diseases and directing personalized therapy. Therefore, IHC biomarker evaluation significantly impacts the adequacy of the therapeutic choices for patients with serious pathologies, such as cancer. However, this evaluation may be time-consuming and dif- ficult to apply in practice due to the absence of precise positive cut-off values as well as staining (i.e. protein expression) heterogeneity intra- and inter-samples. Quantifying IHC staining patterns has thus become a crucial need in histopathology. For this task, automated image analysis has multiple advantages, such as avoiding the evidenced ef- fects of human subjectivity. The recent introduction of whole-slide scanners opened a wide range of possibilities for addressing challenging image analysis problems, includ- ing the identification of tissue-based biomarkers. Whole-slide scanners are devices that are able to image whole tissue slides at resolutions up to 0.1 micrometers per pixels, often referred to as virtual slides. In addition to quantification of IHC staining patterns, virtual slides are invaluable tools for the implementation of digital pathology work- flows. The present work aims to make several contributions towards this current digital shift in pathology. Our first contribution was to propose an automated virtual slide sharpness assessment tool. Although modern whole-slide scanner devices resolve most image standardization problems, focusing errors are still likely to be observed, requiring a sharpness assessment procedure. Our proposed tool will ensure that images provided to subsequent pathologist examination and image analysis are correctly focused. Virtual slides also enable the characterization of biomarker expression heterogeneity. Our sec- ond contribution was to propose a method to characterize the distribution of densely stained regions in the case of nuclear IHC biomarkers, with a focus on the identification of highly proliferative tumor regions by analyzing Ki67-stained tissue slides. Finally, as a third contribution, we propose an efficient mean to register virtual slides in order to characterize biomarker colocalization on adjacent tissue slides. This latter contribution opens new prospects for the analysis of more complex questions at the tissue level and for finely characterizing disease processes and/or treatment responses./Les protéines sont les véritables acteurs des processus physiologiques (normaux ou per- turbés) et l’immunohistochimie (IHC) est un moyen efficace pour visualiser et localiser leur expression au sein d’échantillons histologiques. En comparant des échantillons de tissus pathologiques et normaux, l’IHC permet de révéler des altérations dans des pro- fils d’expression protéique. C’est pourquoi l’IHC joue un rôle de plus en plus important pour mettre en évidence des biomarqueurs histologiques intervenant dans le diagnos- tic de diverses pathologies et dans le choix de thérapies personnalisées. L’évaluation de l’expression de biomarqueurs révélés par IHC a donc des répercussions importantes sur l’adéquation des choix thérapeutiques pour les patients souffrant de pathologies graves, comme le cancer. Cependant, cette évaluation peut être chronophage et difficile à appliquer en pratique, d’une part, à cause de l’hétérogénéité de l’expression protéique intra- et inter-échantillon, d’autre part, du fait de l’absence de critères de positivité bien définis. Il est donc devenu crucial de quantifier les profils d’expression de marquages IHC en histopathologie. A cette fin, l’analyse d’image automatisée possède de multiples avantages, comme celui d’éviter les effets de la subjectivité humaine, déjà démontrés par ailleurs. L’apparition récente des numériseurs de lames histologiques complètes, ou scanners de lames, a permis l’émergence d’un large éventail de possibilités pour traiter des problèmes d’analyse d’image difficiles menant à l’identification de biomar- queurs histologiques. Les scanners de lames sont des dispositifs capables de numériser des lames histologiques à une résolution pouvant atteindre 0,1 micromètre par pixel, expliquant la dénomination de "lames virtuelles" des images ainsi acquises. En plus de permettre la quantification des marquages IHC, les lames virtuelles sont des outils indis- pensables pour la mise en place d’un flux de travail numérique en pathologie. Le travail présenté ici vise à fournir plusieurs contributions au récent changement de cap vers une numérisation de la discipline médicale qu’est l’anatomie pathologique. Notre première contribution consiste en un outil permettant d’évaluer automatiquement la netteté des lames virtuelles. En effet, bien que les scanners de lames résolvent la plupart des pro- blèmes liés à la standardisation de l’acquisition, les erreurs de focus restent fréquentes, ce qui nécessite la mise en place d’une procédure de vérification de la netteté. L’outil que nous proposons assurera la netteté des images fournies à l’examen du pathologiste et à l’analyse d’image. Les lames virtuelles permettent aussi de caractériser l’hétérogénéité de l’expression de biomarqueurs. Ainsi, la deuxième contribution de ce travail repose sur une méthode permettant de caractériser la distribution de régions densément marquées par des biomarqueurs IHC nucléaires. Pour ce travail, nous nous sommes concentrés sur l’identification de régions tumorales présentant une forte activité proliférative en analysant des lames virtuelles révélant l’expression de la protéine Ki67. Finalement, la troisième contribution de ce travail fut de proposer un moyen efficace de recaler des lames virtuelles dans le but de caractériser la colocalisation de biomarqueurs IHC révé- lés sur des coupes de tissu adjacentes. Cette dernière contribution ouvre de nouvelles perspectives pour l’analyse de questions complexes au niveau histologique ainsi que la caractérisation fine de processus pathologiques et de réponses thérapeutiques.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
9

Montagnat, Johan. "Traitement et analyse de grands ensembles d'images médicales". Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00460766.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Coulaud, Benjamin. "Construction d’un cadre statistique consistant pour l’analyse de surfaces au travers de processus généralisés : application à la classification de surfaces cérébrales extraites d’IRM". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0295.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le thème principal de cette thèse est l'analyse statistique de surfaces. Nous introduisons un formalisme pour l'étendre dans un cadre aléatoire la représentation des surfaces introduite par Glaunès et Vaillant (2005). Ce formalisme repose sur une notion de forme linéaire aléatoire définie sur des espaces de champs vectoriels, qui est inspirée de la théorie des processus linéaires généralisés développé par Itô (1954) et Gelfand et Vilenkin (1964). A partir de cette représentation, nous mettons en place un modèle probabiliste décrivant la variabilité des surfaces. Par passage du continu au discret, nous prolongeons ce dernier en un modèle d'observation permettant de décrire des données expérimentales. A partir de ce modèle, nous construisons des estimateurs du représentant moyen d'un échantillon de surfaces et de l'autocovariance du bruit. Nous démontrons des résultats de consistance de ces estimateurs. Nous présentons quelques expériences de validation de la méthode d'estimation sur des données simulées. Nous appliquons cette méthode à la classification de surfaces cérébrales issues de l'IRM en nous plaçant dans un cadre bayésien
The main topic of this manuscript is surface statistic analysis. We define a new formalism that extends to a random framework the surface representation introduced by Glaunès and Vaillant (2005). This formalism is based on a notion of random linear form, which is inspired from the theory of generalized random process, developped by Itô (1954) and Gelfand and Vilenkin (1964). On this representation, we set a probabilistic model that describes the variability of surfaces ; by a transition from continuous to discrete, we extend it to an observation model that describes experimental data. We build estimators for the mean representant of a surface sample and for the autocovariance of the noise. We demonstrate that these estimators are consistent. We report some experiments in which we test our estimation method on simulated data. We apply our statistical framework to classification of brain surfaces from MRI, using a Bayesian classification procedure
11

Tran, Minh-Phuong. "Analyse d'images 3D par méthodes variationnelles et ondelettes : application à l'imagerie médicale". Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00772308.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'imagerie médicale joue un rôle de plus en plus important avec le développement de nombreuses techniques d'acquisition. Il faut principalement pouvoir restaurer (débruiter) les images et en faire une segmentation. Ainsi toute l'information qualitative et quantitative sera disponible pour affiner les diagnostics. Dans cette thèse nous proposons une contribution à cette analyse dans un contexte 3D. Nous étudions deux grands types de méthodes : les méthodes variationnelles et les méthodes par ondelettes. Nous commençons par présenter les modèles variationnels du second ordre, qui s'avèrent plus performants que la classique méthode du premier ordre de Rudin-Osher-Fatemi. Nous l'utilisons pour débruiter et segmenter après avoir donné un bref état de l'art des procédés d'acquisition des images en médecine. Nous introduisons ensuite la transformée en ondelettes et présentons des algorithmes basés sur cette méthode. Les résultats numériques montrent que ces méthodes sont performantes et compétitives. Le coeur de notre travail est de développer des rerésentations 3D qui sont bien adaptées à des données médicales complexes comme des images IRM sous échantillonnées, peu contrastées (cervelets de souris) ou des images IRM d'angiographie (cerveaux de souris). Chaque technique a ses avantages et ses inconvénients. Aussi nous proposons un modèle variationnel mixte second ordre / seuillage par ondelettes. Ce modèle se comporte particulièrement bien : le bruit est correctement éliminé et les contours et textures préservés. Pour finir, nous adaptons plusieurs méthodes de fermeture de contours (hystérésis et distance de chanfrein) dans un contexte 3D. Le mémoire se termine par une synthèses des résultats et une présentation de futures directions de recherche.
12

Montagnat, Johan. "Segmentation d'image médicales volumiques à l'aide de maillages déformables contraints". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 1996. http://tel.archives-ouvertes.fr/tel-00691915.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La segmentation d'organes abdominaux dans des images médicales volumiques est rendue difficile par le bruit et le faible contraste de ces images. Les techniques de segmentation classiques à base d'extraction de contours ou de seuillage donnent des résultats insuffisants. Dans ce rapport, nous utilisons des modèles déformables pour segmenter les images. En introduisant un modèle de l'organe voulu dans le processus de segmentation, nous bénéficions d'une connaissance a priori de la forme à retrouver. Nous utilisons des images de contour bruitées pour déformer localement le modèle. Les données de contours étant incomplètes, il est nécessaire de contraindre le modèle pour qu'il se déforme régulièrement. Nos maillages simplexes bénéficient d'un mécanisme de mémoire de forme agissant de façon régularisante sur les déformations. Nous utilisons des transformations globales pour disposer davantage de contraintes. Un modèle hybride fournit un compromis entre complexité de calcul des transformations globales et nombre de degrés de liberté du modèle. Nous étudions également l'utilisation d'un ensemble d'apprentissage pour construire un modèle plus robuste tirant parti de l'information statistique des déformations possibles. L'information statistique peut être utilisée pour contraindre d'avantage les déformations ou pour paramétrer de façon plus fine le processus de déformation.
13

Pham, Chi-Hieu. "Apprentisage profond pour la super-résolution et la segmentation d'images médicales". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0124/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est d'étudier le comportement de différentes représentations d'images, notamment apprentissage profond, dans le contexte d'application en imagerie médicale. Le but est de développer une méthode unifiée efficace pour les applications visées que sont la super résolution, la segmentation et la synthèse. La super-résolution est un procès d'estimation d'une image haute-résolution à partir d'une ou plusieurs images basses résolutions. Dans cette thèse, nous nous concentrons sur la super résolutionunique, c'est-à-dire que l'image haute résolution (HR) est estimée par une image basse-résolution (LR) correspondante. Augmenter la résolution de l'image grâce à la super-résolution est la clé d'une compréhension plus précise de l'anatomie. L'application de la super résolution permet d'obtenir des cartes de segmentation plus précises. Étant donné que deux bases de données qui contiennent les images différentes (par exemple, les images d'IRM et les images de CT), la synthèse est un procès d'estimation d'une image qui est approximative aux images dans la base de données de cible à partir d'une image de la base de données de source. Parfois, certains contrastes tissulaires ne peuvent pas être acquis pendant la séance d'imagerie en raison du temps et des coûts élevés ou de l'absence d'appareils. Une solution possible est à utiliser des méthodes de synthèse d'images médicales pour générer les images avec le contraste différent qui est manquée dans le domaine à cible à partir de l'image du domaine donnée. L'objectif des images synthétiques est d'améliorer d'autres étapes du traitement automatique des images médicales telles que la segmentation, la super-résolution ou l'enregistrement. Dans cette thèse, nous proposons les réseaux neurones pour la super résolutionet la synthèse d'image médicale. Les résultats démontrent le potentiel de la méthode que nous proposons en ce qui concerne les applications médicales pratiques
In this thesis, our motivation is dedicated to studying the behaviors of different image representations and developing a method for super-resolution, cross-modal synthesis and segmentation of medical imaging. Super-Resolution aims to enhance the image resolution using single or multiple data acquisitions. In this work, we focus on single image super-resolution (SR) that estimates the high-resolution (HR) image from one corresponding low-resolution (LR) image. Increasing image resolution through SR is a key to more accurate understanding of the anatomy. The applications of super-resolution have been shown that applying super-resolution techniques leads to more accurate segmentation maps. Sometimes, certain tissue contrasts may not be acquired during the imaging session because of time-consuming, expensive costor lacking of devices. One possible solution is to use medical image cross-modal synthesis methods to generate the missing subject-specific scans in the desired target domain from the given source image domain. The objective of synthetic images is to improve other automatic medical image processing steps such as segmentation, super-resolution or registration. In this thesis, convolutional neural networks are applied to super-resolution and cross-modal synthesis in the context of supervised learning. In addition, an attempt to apply generative adversarial networks for unpaired cross-modal synthesis brain MRI is described. Results demonstrate the potential of deep learning methods with respect to practical medical applications
14

Niepceron, Brad. "Développement d'une application d'aide au diagnostic basée sur les réseaux de neurones artificiels pour la détection de tumeurs cérébrales". Electronic Thesis or Diss., Amiens, 2021. http://www.theses.fr/2021AMIE0071.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, l'étude de systèmes de diagnostics de tumeurs cérébrales a attiré une attention particulière compte tenu de la croissance rapide de l'apprentissage profond et du développement de réseaux de neurones artificiels efficaces. Dans le domaine clinique, les algorithmes basés sur l'apprentissage profond sont utilisés pour résoudre des tâches visuelles, telles que la détection ou la segmentation de tissus malsains. Ces méthodes ont notamment prouvé leur efficacité dans le diagnostic de tumeurs agressives telles que les gliomes de haut grade. Néanmoins, contraints par leur important besoin en ressources de calcul, ces modèles ne peuvent être réalistiquement déployés à grande échelle. En effet, leurs architectures devenant plus profondes avec l'amélioration de leurs performances, leur utilisation entraîne des coûts matériels et énergétiques importants qui ne correspondent pas aux exigences du domaine médical. L'objectif de ce travail de recherche consiste alors en l'étude de nouveaux outils visant à répondre aux pré-requis nécessaires au déploiement d'application d'aide au diagnostic de tumeurs cérébrales, plus spécifiquement des gliomes, basée sur les réseaux de neurones artificiels. Cette étude passe par un besoin d'optimisation ou de remplacement des méthodes déjà utilisées dans l'état de l'art par des solutions moins dépendantes à la disponibilité de grandes ressources de calcul. Pour répondre à ces problématiques, la compression de réseaux de neurones convolutifs pour la création d'application de segmentation de tumeurs cérébrales sur système embarqué est envisagée. De plus, bien que de nombreux débats soient apparus sur l'efficacité des modèles d'apprentissage profond, des solutions basées sur les réseaux de neurones impulsionnels doivent encore être examinées afin de construire des méthodes d'analyse plus rapides et rentables. L'ordre des contributions exposées dans ce manuscrit permet alors de mettre en avant une transition graduelle entre la deuxième et la troisième génération de réseaux de neurones artificiels. Par conséquent, l'étude présentée dans ce travail se concentre premièrement sur l'adaptation des réseaux de neurones artificiels à des systèmes possédant des ressources de calculs limitées par le biais de méthodes de compression. Puis, des modèles neuronaux pour l'analyse d'images médicales sont étudiés afin de répondre aux problématiques de coûts posées par l'apprentissage profond. Enfin, une nouvelle méthode de développement de systèmes de diagnostic de tumeurs cérébrales basée sur des modèles de neurones biologiques est proposée
During the last decade, the study of brain tumor diagnosis systems brought a significant attention regarding to the fast growth of deep learning and the development of Artificial Neural Networks (ANNs). In the clinical field, deep learning based algorithms are being used to solve visual tasks such as the detection and segmentation of unhealthy tissues. These methods proved to be particularly efficient in the diagnosis of aggressive tumors like high grade gliomas. However, constrained by their important need in computational resources, these models cannot be realistically deployed on a large scale.In fact, their architecture becoming deeper with the improvement of their performances, their use and development entails significant material and energy costs as well as an important carbon dioxide emission. The optimization or replacement of these methods by solutions that are less dependent on the availability of high computational resources is thus critical. To respond to these problems, the compression of modern Convolutional Neural Networks (CNNs) for the creation of brain tumor segmentation applications on embedded systems is considered. Moreover, although many debates appeared concerning the efficiency of Deep Learning algorithms, some solutions based on Spiking Neural Networks (SNNs) are yet to be investigated in order to build fast and affordable medical image analysis systems.The objective of this work is thus to propose new ways to design medical image analysis systems, specifically for glioma tumors diagnosis. We aim to tackle the computational and energy cost issues of existing deep learning solutions to let their deployment be realistic in clinical settings. Hence, the first contribution presented in this manuscript firstly focuses on the adaptation of ANNs to devices with limited computational resources by the means of compression methods. Then, in a second contribution, non-trainable neural models for medical image analysis are investigated in order to respond to the cost problems induced by deep learning. Finally, our third contribution present a new method for the development of brain tumor diagnosis systems based on models of biological neurons
15

Stawiaski, Jean. "Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004807.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.
16

Somphone, Oudom. "Recalage par éléments finis avec partition de l'unité : applications en imagerie médicale". Paris 9, 2009. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2009PA090032.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente une approche paramétrique pour le recalage d'images. Nous représentons une méthode par éléments finis avec partition de l'unité, dans laquelle le champ de déplacement est représenté comme une fonction localement polynômiale. Les propriétés de partition de l'unité nous permettent de déduire une stratégie d'optimisation efficace en dissociant le problème global en sous-problèmes simples et indépendants de minimisations locales. Nous introduisons ensuite la contrainte de conformité qui force dans une certaine mesure les représentations locales à s'accorder entre elles ; cette contrainte est un moyen de contrôler de manière flexible la globalité du champ de déformation. Dans un premier temps, nous appliquons notre méthode au recalage monomodal d'images CT 3D des poumons pour l'estimation du mouvement respiratoire ; nous la comparons à quatre autres méthodes sur plusieurs critères quantitatifs et qualitatifs. Dans un deuxième temps, nous utilisons notre représentation du champ de déplacement par partitions d'unité pour la segmentation biphasique d'images avec a priori de forme ; le principe est de recaler une forme binaire a priori sur une image afin de la segmenter. La contrainte de conformité est un moyen de forcer la solution à respecter l'a priori de forme
In this work, we present a Partition of Unity Finite Element Method (PUFEM) to compute the transformation between two images, which is represented by a non-rigid, locally polynomial displacement field. The partition of unity property offers an efficient optimization scheme by breaking down the global minimization of the mismatch energy into independent, local minimizations. We then introduce a conformity constraint between the local representations to provide a flexible way to control the globality of the deformation. We first apply our method to register 3D-CT images in order to estimate the respiratory motion; it is compared to four other methods with respect to quantitative and qualitative criteria. Secondly, we use our partition of unity representation for the purpose of two-phase, prior-based image segmentation. The crux is to register a binary prior shape to an image in order to segment it. The conformity constraint compels the solution to be compliant with the shape prior
17

Hatt, Mathieu. "Analyse et traitement d'images multi modales en oncologie". Habilitation à diriger des recherches, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-00721743.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec une formation initiale en sciences de l'informatique et une spécialisation image, mes activités de recherche actuelles concernent le traitement et l'analyse de l'information et de l'image pour des applications en médecine, plus particulièrement l'oncologie et la radiothérapie. Plus spécifiquement, je m'intéresse à la segmentation et la classification automatique pour la définition des contours d'organes et de tumeurs, au filtrage du bruit et à la déconvolution pour l'amélioration qualitative et quantitative, et plus récemment, aux modèles multi observation pour la prise en compte des images multi modales, et la fusion d'informations pour l'aide à la décision dans la prise en charge des patients. Je poursuis ces thématiques spécifiquement dans le cadre de l'utilisation de l'imagerie TEP/TDM (Tomographie par Emission de Positons et scanner X) en oncologie et radiothérapie. Mes activités de recherche ont pris place dans le contexte de l'équipe " imagerie multi modale quantitative pour le diagnostic et la thérapie " du laboratoire INSERM U650 de traitement de l'information médicale (LaTIM). Ce contexte a garantit un travail l'équipe pluridisciplinaire, en collaboration notamment avec des radiothérapeutes, des médecins nucléaires, des physiciens, des ingénieurs, des mathématiciens et des informaticiens. En tant que doctorant, ma principale contribution a été le développement d'une méthode originale de segmentation d'image adaptée à la définition des volumes fonctionnels des tumeurs sur les images TEP. Lors de mon post-doctorat, j'ai poursuivi la validation de la précision, de la robustesse et de la reproductibilité de cette approche dans le cadre d'un projet ANR pour lequel j'ai reçu un financement de deux ans et demi. J'ai également étudié au cours de ces deux dernières années l'impact d'une telle méthode dans de nombreuses applications, telles que la dosimétrie en planification de traitement en radiothérapie, et la prise en charge des patients en oncologie. Au cours de ces six dernières années, j'ai été de plus en plus impliqué dans des travaux de recherche connexes menés par d'autres doctorants et post-doctorants. Ces travaux incluent la fusion d'images TEP pour le suivi temporel quantitatif, les simulations réalistes et l'évaluation dosimétrique, la caractérisation de l'hétérogénéité intra tumorale des traceurs TEP par analyse de texture, et la réduction des effets de volume partiel et du bruit en imagerie d'émission. J'ai assumé la responsabilité de co-encadrant de plusieurs stagiaires et doctorants de l'équipe sous la direction du directeur de recherche D. Visvikis. Cette responsabilité inclus des réunions hebdomadaires et des discussions régulières avec les étudiants, l'aide à la mise en place des expériences et protocoles de validation, à l'analyse des résultats, la correction de rapports de stage, d'articles et de manuscrits de thèse, ainsi que réfléchir à des solutions aux problèmes tant théoriques que techniques. Je travaille actuellement en tant que chercheur associé au département de recherche en imagerie et radiothérapie de Maastricht (MAASTRO) aux Pays-bas. Au cours des prochaines années, mon projet de recherche sera dédié au développement d'un contexte flexible et robuste permettant la modélisation et l'analyse semi-automatique d'ensemble d'images médicales multi modales, multi résolutions et multi temporelles, telles que TEP/TDM, TEMP/TDM, TEP/IRM, multi IRM ou TEP avec différents traceurs, ainsi que des acquisitions dynamiques. Ce développement permettra de déduire de nouveaux modèles prédictifs et des outils de décision adaptés à diverses applications cliniques tels que les cancers de l'oesophage, rectal, pulmonaire ou ORL, par la fusion de toute l'information disponible (imagerie, génétique, phéntypes et rapports cliniques). Ce projet se construira en partie sur les travaux préliminaires réalisés avec des doctorants venant de soutenir et en passe de terminer leur thèse, et sur les thèses de deux nouvelles doctorantes que j'encadrerai à partir d'octobre 2011 et courant 2012, recrutées sur des financements que j'ai contribué à obtenir en 2010-2011.
18

Rialle, Vincent. "Aide au diagnostic et à l'apprentissage dans un domaine médical incertain, incomplet et évolutif : étude des méthodes existantes et proposition d'une méthodologie nouvelle". Phd thesis, Grenoble 1, 1987. https://theses.hal.science/tel-00325679.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Rialle, Vincent. "Aide au diagnostic et à l'apprentissage dans un domaine médical incertain, incomplet et évolutif : étude des méthodes existantes et proposition d'une méthodologie nouvelle". Phd thesis, Université Joseph Fourier (Grenoble), 1987. http://tel.archives-ouvertes.fr/tel-00325679.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Montagnat, Johan. "Modèles déformables pour la segmentation et la modélisation d'images médicales 3D et 4D". Phd thesis, Université de Nice Sophia-Antipolis, 1999. http://tel.archives-ouvertes.fr/tel-00683368.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à l'utilisation des modèles déformables surfaciques pour la segmentation d'images 3D et 4D. Dans un premier temps, nous nous sommes attachés à contraindre l'espace des déformations admissibles du modèle afin de rendre le processus de déformation plus fiable. Nous avons utilisé le formalisme des maillages simplexes pour exprimer des contraintes régularisantes de la surface. Nous avons développé un processus évolutif de déformation combinant une transformation globale ayant peu de degrés de liberté et un champ de déformations locales. Il permet de contrôler le nombre de degrés de liberté offerts au modèle surfacique de manière simple et efficace. Nous avons également cherché à enrichir la connaissance a priori des données apportée par le modèle. Nous utilisons des contraintes de forme pour faciliter la segmentation des structures à reconstruire, notamment dans les zones où les données de l'image sont bruitées ou lacunaires. Nous nous sommes également intéressés à la convergence formelle du processus de déformation. Nous avons développé un algorithme de changement de topologie des modèles discrets que nous avons comparé à l'approche par ensembles de niveaux. Dans un deuxième temps, nous nous sommes intéressés à la définition du terme d'attache aux données pour différents types d'images 3D. Nous avons envisagé plusieurs géométries rencontrées dans les images médicales. Nous avons étudié l'apport d'une information sur les régions ou sur la distribution des niveaux de gris de l'image pour la déformation ou le recalage multimodal d'un modèle. Finalement, nous nous sommes intéressés à la segmentation de séquences temporelles d'images cardiaques 2D ou 3D. La prise en compte de l'information temporelle permet d'introduire de nouvelles contraintes de déformations. Nous avons mis nos méthodes en pratique avec la segmentation d'images ou des séquences d'images cardiaques provenant de différentes modalités d'acquisition.
21

Lopes, Renaud. "Analyses fractale et multifractale en imagerie médicale : outils, validations et applications". Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10100/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La géométrie fractale, comprenant les analyses fractales et multifractales, est un outil en émergence dans de nombreux domaines d’applications et notamment en imagerie médicale. Elle consiste à formuler une mesure de l’hétérogénéité globale ou locale d’un signal (1D, 2D ou 3D). En imagerie médicale, son utilisation est souvent limitée au cas 1D ou 2D et ses domaines d’applications restent essentiellement restreints à la discrimination entre deux états (sains/pathologiques) grâce à une analyse globale du signal. L’objectif de cette thèse est de fournir à la fois des outils 3D de mesures des hétérogénéités globale (volume) et locale (voxel) basées sur la géométrie fractale. Les deux indices utilisés sont la dimension fractale et le spectre multifractal (coefficients de Hölder). Etant donné que les algorithmes de ces outils ne peuvent formuler que des estimations de la valeur théorique, nous utilisons des volumes de synthèses fractals et multifractals pour les valider. Les différents développements offrent ainsi non seulement des outils de discrimination mais également des outils de segmentation de texture. Ce deuxième point est particulièrement intéressant, car le développement de nouveaux attributs de texture est un domaine de recherche actif du fait de l’évolution incessante des technologies d’imagerie. Afin de valider et de montrer l’intérêt de la géométrie fractale, deux applications sont étudiées : la caractérisation des foyers épileptogènes sur des images de tomographie par émission mono-photonique, et la détection des tumeurs prostatiques sur des images IRM pondérées T2. L’efficacité des attributs fractals et multifractals sont étudiés à travers un schéma de classification supervisée. Les résultats concluants pour les deux applications démontrent l’intérêt de cette géométrie et son adaptabilité à différentes applications en imagerie médicale
Fractal geometry is an emerging concept used in medical image analysis. The aim of this geometry is to measure global and local heterogeneities (1D, 2D or 3D). In medical imaging, it is often used to characterize 1D and 2D signals and restricted to discriminate between 2 states (healthy/pathological) by a global analysis of a signal. This thesis aims at providing 3D fractal geometry based tools for the measures of global (volume) and local (voxel) heterogeneities. Two indices are used: fractal dimension and multifractal spectrum (Hölder exponents). Since these algorithms estimate the theoretical value, fractal and multifractal synthetic volumes were used for the validation. This work also proposes texture segmentation tools. Two applications were studied; characterization of epileptic foci on single photon emission computed tomography images and the detection of prostatic tumors on T2-weighted MR images. The effectiveness of fractal and multifractal features are studied through a framework of supervised classification. The results for both applications demonstrate the usefulness of this geometry and its adaptability to several applications in medical imaging
22

Jiang, Zhifan. "Évaluation des mobilités et modélisation géométrique du système pelvien féminin par analyse d’images médicales". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10003/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le meilleur traitement des troubles des mobilités du système pelvien féminin est un enjeu de société concernant particulièrement les femmes âgées. C'est dans ce contexte que cette thèse porte sur le développement des méthodes d'analyse d'images médicales permettant d'évaluer les mobilités pelviennes et modéliser les géométries des organes pelviens. Pour ce faire, nous proposons des solutions reposant sur le recalage des modèles déformables sur des images, issues de la technique d'Imagerie par Résonance Magnétique (IRM). L'ensemble des résultats permet, à partir d'IRM, spécifiquement à chaque patiente, de détecter la forme et de quantifier le mouvement d'une part des organes et de reconstruire leurs surfaces. Ce travail facilite la simulation du comportement des organes pelviens par la méthode des éléments finis. L'ensemble des outils développés a pour objectif d'aider à comprendre le mécanisme des pathologies. Ceci permettra enfin de mieux prédire l'apparition de certaines d'entre elles, de préciser et personnaliser les procédures chirurgicales
The better treatment of female pelvic mobility disorders has a social impact affecting particularly aged women. It is in this context that this thesis focuses on the development of methods in medical image analysis, for the evaluation of pelvic mobility and the geometric modeling of the pelvic organs. For this purpose, we provide solutions based on the registration of deformable models on Magnetic Resonance Images (MRI). All the results are able to detect the shape and quantify the movement of a part of the organs and to reconstruct their surfaces from patient-specific MRI. This work facilitates the simulation of the behavior of the pelvic organs using finite element method. The objective of these developed tools is to help to better understand the mechanism of the pathologies. They will finally allow to better predict the presence of certain diseases, as well as make surgical procedures more accurate and personalized
23

Afdel, Karim. "Conception d'outils d'analyse quantitative d'images pour la biologie moléculaire et la dermatologie". Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30072.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On a elabore et mis en uvre des outils informatiques destines a quantifier differentes images biologiques par morphologie mathematique et filtrages. Trois types d'images ont ete analysees. Les images obtenues a partir d'autoradiographies d'electrophoreses en gel (utilisees par les biologistes pour separer les proteines ou acides nucleiques) sont le premier type d'images etudiees. On a montre qu'on pouvait modeliser le profil de ligne moyen des pistes des autoradiographies par des gaussiennes non normalisees en utilisant la methode des moindres carres. L'application de cette methode a un gel contenant trois fragments d'adn de tailles tres proches a permis de valider la methode. Les autoradiographies d'hybridation in situ qui revelent la distribution de molecules d'arn specifiques dans les cellules constituent le deuxieme domaine d'application de cette these. Une procedure de comptage automatique a ete mise en place pour cette etude. L'analyse des textures associee a l'analyse en composante principale a ete appliquee a des images obtenues par transmission optique de corneocytes preleves par scotch test. On a montre que cette approche permettait de quantifier de maniere pertinente la quantite et la qualite de la desquamation
24

Boucher, Arnaud. "Recalage et analyse d'un couple d'images : application aux mammographies". Phd thesis, Université René Descartes - Paris V, 2013. http://tel.archives-ouvertes.fr/tel-00798271.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le monde de la recherche, l'analyse du signal et plus particulièrement d'image, est un domaine très actif, de par la variété des applications existantes, avec des problématiques telles que la compression de données, la vidéo-surveillance ou encore l'analyse d'images médicales pour ne prendre que quelques exemples. Le mémoire s'inscrit dans ce dernier domaine particulièrement actif. Le nombre d'appareils d'acquisition existant ainsi que le nombre de clichés réalisés, entraînent la production d'une masse importante d'informations à traiter par les praticiens. Ces derniers peuvent aujourd'hui être assistés par l'outil informatique. Dans cette thèse, l'objectif est l'élaboration d'un système d'aide au diagnostic, fondé sur l'analyse conjointe, et donc la comparaison d'images médicales. Notre approche permet de détecter des évolutions, ou des tissus aberrants dans un ensemble donné, plutôt que de tenter de caractériser, avec un très fort a priori, le type de tissu cherché.Cette problématique permet d'appréhender un aspect de l'analyse du dossier médical d'un patient effectuée par les experts qui est l'étude d'un dossier à travers le suivi des évolutions. Cette tâche n'est pas aisée à automatiser. L'œil humain effectue quasi-automatiquement des traitements qu'il faut reproduire. Avant de comparer des régions présentes sur deux images, il faut déterminer où se situent ces zones dans les clichés. Toute comparaison automatisée de signaux nécessite une phase de recalage, un alignement des composantes présentes sur les clichés afin qu'elles occupent la même position sur les deux images. Cette opération ne permet pas, dans le cadre d'images médicales, d'obtenir un alignement parfait des tissus en tous points, elle ne peut que minimiser les écarts entre tissus. La projection d'une réalité 3D sur une image 2D entraîne des différences liées à l'orientation de la prise de vue, et ne permet pas d'analyser une paire de clichés par une simple différence entre images. Différentes structurations des clichés ainsi que différents champs de déformation sont ici élaborés afin de recaler les images de manière efficace.Après avoir minimisé les différences entre les positions sur les clichés, l'analyse de l'évolution des tissus n'est pas menée au niveau des pixels, mais à celui des tissus eux-mêmes, comme le ferait un praticien. Afin de traiter les clichés en suivant cette logique, les images numériques sont réinterprétées, non plus en pixels de différentes luminosités, mais en motifs représentatifs de l'ensemble de l'image, permettant une nouvelle décomposition des clichés, une décomposition parcimonieuse. L'atout d'une telle représentation est qu'elle permet de mettre en lumière un autre aspect du signal, et d'analyser sous un angle nouveau, les informations nécessaires à l'aide au diagnostic.Cette thèse a été effectuée au sein du laboratoire LIPADE de l'Université Paris Descartes (équipe SIP, spécialisée en analyse d'images) en collaboration avec la Société Fenics (concepteur de stations d'aide au diagnostic pour l'analyse de mammographies) dans le cadre d'un contrat Cifre.
25

Eude, Thierry. "Compression d'images médicales pour la transmission et l'archivage, par la transformée en cosinus discrète". Rouen, 1993. http://www.theses.fr/1993ROUES056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En milieu hospitalier, l'utilisation de l'imagerie prend une place de plus en plus importante. Mais la quantité d'informations que représentent les images quand on parle d'archivage ou de transmission numérique pose des problèmes très préoccupants. Une réponse à ceux-ci consiste à compresser ces images. De nombreuses méthodes existent. La plus utilisée est basée sur la transformée en cosinus discrète (TCD). Elle constitue le noyau de la norme JPEG sur la compression des images fixes. Les travaux présentés dans ce manuscrit, consistent à déterminer des outils pouvant être intégrés à cette norme, et adaptés spécifiquement aux images médicales. Une étude statistique a donc été faite de façon extensive pour déterminer les lois que suivent les coefficients résultant de la TCD de ces images. Les résultats obtenus sont alors utilisés pour adapter la compression
26

Rakotomalala-Randrianarisoa, Vaoariniaina Vénérée. "Reconstruction bidimensionnelle de vaisseaux rétiniens par analyse d'images couleur de fond d'oeil". Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-359.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail s'inscrit dans le projet ACINFO (Analyse Colorimétrique d'Images Numériques du Fond d'Oeil) en collaboration avec le service des maladies infectieuses et du voyageur de l'hôpital Dron de Tourcoing. Notre apport se résume à la conception d'un système d'analyse d'images couleur de fond d'oeil. La méthode que nous proposons consiste à modéliser l'arbre vasculaire bidimensionnelle rétinien à l'aide d'un suivi récursif des contours. Une coopération région-contour permet d'optimiser le suivi des contours en exploitant la région formée par le corps des vaisseaux pour traiter les différents problèmes liés au suivi des contours. Nous présentons également une méthode qui permet de quantifier la qualité de la localisation des contours en fonction du système de représentation de la couleur utilisé, afin de déterminer les systèmes de représentation colorimétriques les mieux adaptés à notre application. Les vaisseaux reconstruits serviront de repères anatomiques dans la localisation de lésions de rétinite à C. M. V. (CytoMégaloVirus) dans les rétines des patients atteints du virus du sida.
27

Bensemra-Zegadi, Nacera. "Analyse spectrale locale d'images texturées par transformation en ondelettes : application à la quantification de textures osseuses". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La texture est une notion naturellement multi-échelles et qui est liée à un observateur humain. Sous sa forme classique La transformation en ondelettes (TO) fait partie des représentations mufti-échelles. Elle permet une observation hiérarchique de la texture du global vers le local, qui présente une similitude avec le système visuel humain et qui permet de caractériser les interactions spatiales intra-échelle de la texture. Nous nous intéressons aussi à une deuxième interprétation de la TO continue en tant qu'outil d'analyse espace-fréquences spatiales. Les transformations espace-fréquences spatiales permettent d'associer un spectre fréquentiel local à chaque point de l'image. Ainsi le spectrogramme, la transformation de Gabor, la transformation de Wigner-Ville et la version quadratique de la TO peuvent-ils être définis pour les images, dans une classe de représentations énergétiques. Les relations entre ces différentes transformations peuvent s'exprimer à l'aide de la transformation de Wigner-Ville qui joue un rôle théorique central. Une technique de calcul basée sur la transformation de Mellin-Fourier est proposée. La représentation spectrale de la TO ainsi obtenue est bien adaptée à l'analyse de texture. Elle permet l'extraction de nombreux paramètres fréquentiels à partir des spectres locaux. Des paramètres, caractérisant l'anisotropie et l'orientation, sont en particulier proposés et illustrés sur des textures naturelles. La TO continue, est aussi bien adaptée à l'estimation d'un paramètre inter-échelles qui est La dimension fractale. Celle-ci permet ainsi de caractériser la rugosité de la texture. L'approche texturale constitue une méthode non invasive, particulièrement intéressante pour la quantification des altérations structurales dues au vieillissement de la vertèbre. Nous avons utilisé des méthodes d'analyse locale de la texture par la TO ainsi que d'autres globales sur des d'images radiologiques de la vertèbre (obtenues par tomographie haute résolution et par historadiographie sagittale). Ces images de coupes, par leur situation particulière vis à vis de 1 'axe principal du rachis lombaire, permettent d'approcher l'information 3D contenue dans la texture osseuse
Texture is naturally a multi-scale notion which is linked to a human observant. In its classical form, wavelet transform (WT) is a multi-scale representation. It permits a hierarchical texture observation, in a global and a local manner, similar at the human vision and which characterise spatial interactions into-scale. We focus also on a second interpretation of WT as a frequency analysis tool. Space-frequency transformations associate a local frequential spectrum to each point of the image. Thus, spectrogram, Gabor transform, Wigner-Ville transform and the quadratic form of WT can be defined for images in a class of energetic representations. Relationships between these transformations can be expressed by means of the Wigner-Ville transform, which plays a central theoretical role. A Mellin-Fourier transform based technique is proposed. The obtained spectral representation is well adapted to texture analysis. It allows extracting a large number of frequential parameters from local spectra. Moreover, parameters characterising orientation and anisotropy are proposed and illustrated with natural textures. WT is also well suited to estimate -the fractal dimension. This last parameter permits to characterise the roughness texture. The textural approach is a non invasive method which is particularly interesting to quantify structural variations due to vertebra aging. We have used local analysis methods and some global ones on radiological images of vertebra (obtained in high resolution tomography and in sagital micro-radiography), which contains different directional informations
28

Dellandréa, Emmanuel. "Analyse de signaux vidéos et sonores : application à l'étude de signaux médicaux". Tours, 2003. http://www.theses.fr/2003TOUR4031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La problématique considérée concerne l'étude de séquences multimédia constituées d'images et de sons dont il s'agit d'étudier les corrélations de manière à aider à la compréhension de l'origine des bruits. L'analyse des séquences d'images consiste à suivre les objets en mouvement de manière à permettre leur étude. Une méthode générique, reposant sur une combinaison de suivi de régions et de contours, et une méthode adaptée aux objets homogènes, reposant sur la théorie des ensembles de niveaux, sont proposées. L'analyse des données sonores consiste en l'élaboration d'un système d'identification reposant sur des données sonores consiste en l'élaboration d'un système d'identification reposant sur l'étude de la structure des signaux grâce à des codages adaptés et à leur modélisation par les lois de Zipf. Ces méthodes ont été évaluées sur des séquences acoustico-radiologiques dans le cadre de l'étude de la pathologie du reflux gastro-oesophagien, en collaboration avec l'équipe Acoustique et Motricité Digestive de l'Université de Tours
The work deals with the study of multimedia sequences containing images and sounds. The analysis of images sequences consists in the tracking of moving objects in order to allow the study of their properties. The investigations have to enable the understanding of sounds when correlated to events in the image sequence. One generic method, based on the combination of regions and contours tracking, and one method adapted to homogeneous objects, based on level set theory, are proposed. The analysis of audio data consists in the development of an identification system based on the study of the structure of signals thanks to their coding and Zipf laws modeling. These methods have been evaluated on medical sequences within the framework of the gastro-oesophageal reflux pathology study, in collaboration with the Acoustique et Motricité Digestive research team of the University of Tours
29

Foucher, Christophe. "Analyse et amélioration d'algorithmes neuronaux et non neuronaux de quantification vectorielle pour la compression d'images". Rennes 1, 2002. http://www.theses.fr/2002REN10120.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le contexte de l'imagerie satellite, nous avons travaillé sur la quantification vectorielle (QV) qui permet un meilleur compromis qualité/compression avec un codage à longueur fixe, plus robuste. Pour guider le choix d'un algorithme, nous avons en analysé plusieurs selon leurs caractéristiques de fonctionnement et leurs performances. Certains ont été simulés sur des images réelles. Un point faible de la QV est la complexité algorithmique du codage. Les évaluations ont confirmé l'intérêt des techniques de QV avec contrainte pour la réduire mais au détriment de la qualité. C'est pourquoi nous avons proposé deux techniques d'accélération sans contrainte. La première utilise les corrélations intra-blocs pour accélérer la recherche par distorsion partielle grâce à une concentration préalable de la variance. La seconde utilise les corrélations inter-blocs grâce à l'organisation topologique d'un dictionnaire construit par carte auto-organisée.
30

Faucheux, Cyrille. "Segmentation supervisée d'images texturées par régularisation de graphes". Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4050/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à un récent algorithme de segmentation d’images basé sur un processus de régularisation de graphes. L’objectif d’un tel algorithme est de calculer une fonction indicatrice de la segmentation qui satisfait un critère de régularité ainsi qu’un critère d’attache aux données. La particularité de cette approche est de représenter les images à l’aide de graphes de similarité. Ceux-ci permettent d’établir des relations entre des pixels non-adjacents, et ainsi de procéder à un traitement non-local des images. Afin d’en améliorer la précision, nous combinons cet algorithme à une seconde approche non-locale : des caractéristiques de textures. Un nouveau terme d’attache aux données est dans un premier temps développé. Inspiré des travaux de Chan et Vese, celui-ci permet d’évaluer l’homogénéité d’un ensemble de caractéristiques de textures. Dans un second temps, nous déléguons le calcul de l’attache aux données à un classificateur supervisé. Entrainé à reconnaitre certaines classes de textures, ce classificateur permet d’identifier les caractéristiques les plus pertinentes, et ainsi de fournir une modélisation plus aboutie du problème. Cette seconde approche permet par ailleurs une segmentation multiclasse. Ces deux méthodes ont été appliquées à la segmentation d’images texturées 2D et 3D
In this thesis, we improve a recent image segmentation algorithm based on a graph regularization process. The goal of this method is to compute an indicator function that satisfies a regularity and a fidelity criteria. Its particularity is to represent images with similarity graphs. This data structure allows relations to be established between similar pixels, leading to non-local processing of the data. In order to improve this approach, combine it with another non-local one: the texture features. Two solutions are developped, both based on Haralick features. In the first one, we propose a new fidelity term which is based on the work of Chan and Vese and is able to evaluate the homogeneity of texture features. In the second method, we propose to replace the fidelity criteria by the output of a supervised classifier. Trained to recognize several textures, the classifier is able to produce a better modelization of the problem by identifying the most relevant texture features. This method is also extended to multiclass segmentation problems. Both are applied to 2D and 3D textured images
31

Grezes-Besset, Louise. "Détection et analyse du mouvement respiratoire à partir d'images fluoroscopiques en radiothérapie". Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00735816.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le principe de la radiothérapie est de délivrer le maximum de dose de rayons X à la tumeur en épargnant au mieux les tissus sains environnants. Dans le cas du cancer du poumon, les mouvements respiratoires représentent une difficulté majeure. L'imagerie tomodensitométrique (TDM) 4D fournit des informations de mouvement spécifique à chaque patient qui peuvent servir de base pour la construction de modèles de mouvement respiratoire. La disponibilité dans les salles de traitement d'imageurs tomographiques embarqués sur les accélérateurs linéaires permet une estimation direct du mouvement et offre des informations plus précises. Un tel système d'imagerie permet entre-autre d'acquérir des images fluoroscopiques : ensemble de projections radiographiques 2D acquises au cours du temps et sous le même angle de vue. Notre approche s'intègre dans des systèmes de synchronisation de l'irradiation avec la respiration. Actuellement, cette technique existe en utilisant pour signal de synchronisation soit un signal externe, soit un signal interne issu du mouvement de marqueurs implantés autour de la tumeur. Notre approche permet d'obtenir un signal de synchronisation obtenu à partir de données internes sans marqueurs implantés. Dans ce cadre, nous avons expérimenté, développé puis évalué 3 méthodes de détection du mouvement à partir de séquences fluoroscopiques. Ces méthodes sont basées respectivement sur la variation de l'intensité, l'extraction de la hauteur du diaphragme et le suivi de blocst. A partir d'un algorithme de mise en correspondance de blocs, nous avons étudié l'homogénéité du mouvement apparent et déterminé, sans a priori géométrique, des régions où le mouvement est uniforme. Nous avons ensuite étudié la corrélation entre le signal interne extrait sur des séquences fluoroscopiques, et un signal extrait d'une vidéo-caméra synchronisée aux séquences fluoroscopiques assimilable à un signal externe. Dans une dernière partie, nous proposons d'estimer le mouvement 3D de la tumeur à partir d'un modèle de mouvement a priori élaboré dans une étape de pré-traitement à l'aide d'images TDM 4D et du signal respiratoire acquis dans la salle de traitement. L'intérêt de notre approche est qu'elle ne nécessite pas de marqueurs implantés ce qui la rend moins invasive que de nombreuses autres techniques. D'autre part, nous proposons un suivi 2D donc potentiellement rapide, mais basé sur un modèle 3D sous-jacent permettant ainsi de retrouver le maximum d'information. Cliniquement, notre approche permettrait de réaliser une adaptation quotidienne aux mouvements inter-sessions. Une des limites de notre approche est qu'elle nécessite une prise d'images ionisantes en continue. Un système hybride basée sur la combinaison d'un signal interne et d'un signal externe permettrait de limiter la dose additionnelle. Des efforts supplémentaires sur la réduction du temps de calcul sont encore nécessaires pour espérer guider un traitement par une telle approche.
32

Michoud, Edouard. "Analyse d'images dynamiques en biologie et médecine : applications à la microcirculation clinique et expérimentale". Université Joseph Fourier (Grenoble), 1990. http://www.theses.fr/1990GRE19002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Mvoulana, Amed. "Vers un ophtalmologiste "augmenté" : analyse d'images rétiniennes pour l'aide au diagnostic précoce du glaucome". Thesis, Université Gustave Eiffel, 2022. http://www.theses.fr/2022UEFL2007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les pathologies oculaires sont au cœur d'enjeux majeurs de santé publique. L'une d’elles, le glaucome, nécessite un dépistage précoce pour garantir le traitement efficace des patients atteints, et prévenir de déficiences visuelles irréversibles. L'avènement des approches dites de vision par ordinateur et d'apprentissage profond est à l'origine d'un changement de paradigme dans le domaine de l'ophtalmologie, vecteurs d'appui sans précédent dans les choix diagnostiques et thérapeutiques. Dans cette thèse, nous proposons de nouvelles méthodes pour le développement de systèmes intelligents dédiés au dépistage précoce de glaucome sur des images de la rétine. Nous visons notamment le déploiement de systèmes mobiles intégrant des dispositifs d'acquisition portables, pour le dépistage de proximité et/ou itinérant.Dans un premier temps, nous proposons une méthode permettant l'analyse de la tête du nerf optique (communément appelée papille), région caractérisée par un changement topographique en présence de glaucome. S’appuyant sur un algorithme précis de segmentation des structures de la papille, notamment du disque optique et de l’excavation (cup) en son sein, la méthode extrait des mesures cliniques pertinentes comme le ratio cup-disque, les secteurs inférieur-supérieur-nasal-temporal (ISNT) et l'aire de l'anneau neuro-rétinien. Un protocole clinique basé sur des références en ophtalmologie permet alors de dépister les cas glaucomateux, et donner des indications sur les stades de développement de la neuropathie (glaucome précoce, modéré ou avancé). Bien que très précise dans le dépistage, avec un taux de performance de 94% sur la base d'évaluation (DRISHTI-GS1), cette méthode a permis de mettre en lumière la nécessité d’améliorer la capacité de généralisation de l’outil, notamment en présence de papilles glaucomateuses sans excavation (faux négatifs) ou de larges papilles saines (faux positifs). Dans un deuxième temps, nous proposons une méthode basée sur des algorithmes d’apprentissage profond, permettant une interprétation automatique des traits caractéristiques de rétines saines ou glaucomateuses. Ce travail exploite des réseaux de neurones convolutionnels de l’état de l’art (VGG-16, ResNet50, Inception-v3, MobileNet et DenseNet121), et propose une méthode d'apprentissage par transfert efficace pour adapter ces réseaux à la tâche de dépistage de la pathologie. Ces modèles atteignent une AUC de plus de 0.97, toutefois, cette étude comparative a permis de déceler les besoins nécessaires au développement de modèles performants, en vue d'un déploiement en condition clinique : 1) une base d’images rétiniennes consistante en termes de taille, d'équilibre inter-classe, de fiabilité diagnostique et de variabilité clinique, 2) des modèles interprétables et explicables, permettant aux spécialistes de comprendre et discuter le résultat de dépistage. Dans ce sens, nous proposons dans un troisième temps une méthode exploitant les percées récentes de l’apprentissage semi-supervisé, pour la génération d’images rétiniennes synthétiques. L’algorithme proposé, BAGAN (pour Balancing GAN), permet de produire à partir d’une base d’images de référence (REFUGE), une base rétinienne comblant le déséquilibre inter-classes potentiellement responsable de biais diagnostiques, tout en répondant aux critères de qualité d’image et de diversité clinique. Nous avons démontré la pertinence d’une telle base dans le développement d’algorithmes semi-supervisés pour le dépistage du glaucome.Enfin, une toute nouvelle interface, disponible sur plateforme de bureau et mobile, a été conçue à destination des ophtalmologistes et professionnels de santé. Ludique et intuitive, elle intègre différentes fonctionnalités basées sur les algorithmes développées, et permet un dépistage en temps réel pour contribuer à l'amélioration de la prise en charge en santé oculaire
Ocular diseases are at the core of major public health issues. One of them, glaucoma, requires early screening to ensure effective treatment of affected patients, and prevent irreversible visual damages. The advent of so-called computer vision and deep learning approaches has led to a paradigm shift in the field of ophthalmology, providing unprecedented support in diagnostic and therapeutic choices. In this thesis, we propose new methods for the development of intelligent systems dedicated to the early detection of glaucoma from retinal images. In particular, we aim at deploying of mobile-based computer-aided diagnosis systems, for remote screening. Firstly, we proposed a method aiming at analyzing the optic nerve head, featured by morphological changes in the presence of glaucoma. Based on a precise algorithm for segmenting the structures of the optic disc and the cup within it, the method extracts clinically relevant measures such as the cup-to-disc ratio, the inferior-superior-nasal-temporal (ISNT) sectors and the neuroretinal rim area. A clinical protocol based on ophthalmic references is drawn to screen for glaucoma, and give indications about the stages of development of the neuropathy (early, moderate or advanced glaucoma). Although very accurate screening, with a performance rate of 94% on the evaluation base (DRISHTI-GS1), this method has highlighted the need to improve generalizability, particularly in the presence of glaucomatous nerve heads without excavation (false negatives) or large healthy nerve heads (false positives). Secondly, we proposed a method based on deep learning algorithms, allowing an automated interpretation of healthy or glaucomatous retinas. This work exploits state-of-the-art convolutional neural networks (VGG-16, ResNet50, Inception-v3, MobileNet and DenseNet121), and proposes an efficient transfer learning method to adapt these networks to the glaucoma screening. These models achieve an AUC of more than 0.97, however, this comparative study has identified the needs for developing efficient models for deployment in clinical conditions: 1) a consistent retinal image dataset in terms of size, inter-class balance, diagnostic reliability and clinical variability, 2) interpretable and explainable models, allowing specialists to understand and discuss the screening result.In this sense, we propose in a third step a method exploiting recent advances in semi-supervised learning, for the generation of synthetic retinal images. The proposed algorithm, BAGAN (for Balancing GAN), allows to produce from a reference image dataset (REFUGE), a new dataset filling the inter-class imbalance potentially responsible for diagnostic bias, while meeting the criteria of image quality and clinical diversity. We have demonstrated the relevance of such dataset in the further development of semi-supervised diagnosis algorithms. Finally, a brand new interface, available on desktop and mobile platforms, has been designed for ophthalmologists and health professionals. Smart and intuitive, it integrates various functionalities based on the developed algorithms, and allows real-time screening to contribute to the improvement of eye health care
34

BACHAR, KADDOUR. "Contributions en analyse factorielle et en classification ascendante hierarchique sous contrainte de contiguite. Applications a la segmentation d'images". Rennes 1, 1994. http://www.theses.fr/1994REN10201.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail propose des solutions pour prendre en compte la notion de contiguite, dans les analyses des correspondances et dans la classification ascendante hierarchique (cah). La notion de contiguite est introduite sur l'ensemble des individus. La notion de contiguite est traduite a partir d'un graphe de voisinage, eventuellement value, avec un cas particulier des graphes bistochastiques. Nous proposons l'analyse des correspondances multiples lissee, et l'analyse des differences locales. Une autre possibilite proposee, utilisant l'analyse factorielle multiple, consiste a ajoindre aux variables qualitatives des variables de coordonnees traduisant la proximite. Nous proposons aussi un nouvel algorithme inspire du principe des voisins reciproques et tenant compte d'une contrainte de contiguite definie par un graphe connexe quelconque. En particulier, nous donnons des proprietes optimales. Ces techniques sont appliquees en analyse d'image, pour resoudre les problemes de segmentation selon des criteres texturaux
35

Alvarez, padilla Francisco Javier. "AIMM - Analyse d'Images nucléaires dans un contexte Multimodal et Multitemporel". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS017/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse portent sur la proposition de stratégies de segmentation des tumeurs cancéreuses dans un contexte multimodal et multitemporel. La multimodalité fait référence au couplage de données TEP/TDM pour exploiter conjointement les deux sources d’information pour améliorer les performances de la segmentation. La multitemporalité fait référence à la disposition des images acquises à différents dates, ce qui limite une correspondance spatiale possible entre elles.Dans une première méthode, une structure arborescente est utilisée pour traiter et pour extraire des informations afin d’alimenter une segmentation par marche aléatoire. Un ensemble d'attributs est utilisé pour caractériser les nœuds de l'arbre, puis le filtrer et projeter des informations afin de créer une image vectorielle. Un marcheur aléatoire guidé par les données vectorielles provenant de l'arbre est utilisé pour étiqueter les voxels à des fins de segmentation.La deuxième méthode traite le problème de la multitemporalité en modifiant le paradigme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modélisés à partir de la TEP et de la TDM avec injection de contraste pour comparer leurs nœuds par une différence entre leurs attributs et ainsi correspondre à ceux considérés comme similaires en supprimant ceux qui ne le sont pas.Dans une troisième méthode, qui est une extension de la première, l'arbre calculé à partir de l'image est directement utilisé pour mettre en œuvre l'algorithme développé. Une structure arborescente est construite sur la TEP, puis les données TDM sont projetées sur l’arbre en tant qu’informations contextuelles. Un algorithme de stabilité de nœud est appliqué afin de détecter et d'élaguer les nœuds instables. Des graines, extraites de la TEP, sont projetées dans l'arbre pour fournir des étiquettes (pour la tumeur et le fond) à ses nœuds correspondants et les propager au sein de la hiérarchie. Les régions évaluées comme incertaines sont soumises à une méthode de marche aléatoire vectorielle pour compléter l'étiquetage de l'arbre et finaliser la segmentation
This work focuses on the proposition of cancerous tumor segmentation strategies in a multimodal and multitemporal context. Multimodal scope refers to coupling PET/CT data in order to jointly exploit both information sources with the purpose of improving segmentation performance. Multitemporal scope refers to the use of images acquired at different dates, which limits a possible spatial correspondence between them.In a first method, a tree is used to process and extract information dedicated to feed a random walker segmentation. A set of region-based attributes is used to characterize tree nodes, filter the tree and then project data into the image space for building a vectorial image. A random walker guided by vectorial tree data on image lattice is used to label voxels for segmentation.The second method is geared toward multitemporality problem by changing voxel-to-voxel for node-to-node paradigm. A tree structure is thus applied to model two hierarchical graphs from PET and contrast-enhanced CT, respectively, and compare attribute distances between their nodes to match those assumed similar whereas discarding the others.In a third method, namely an extension of the first one, the tree is directly involved as the data-structure for algorithm application. A tree structure is built on the PET image, and CT data is then projected onto the tree as contextual information. A node stability algorithm is applied to detect and prune unstable attribute nodes. PET-based seeds are projected into the tree to assign node seed labels (tumor and background) and propagate them by hierarchy. The uncertain nodes, with region-based attributes as descriptors, are involved in a vectorial random walker method to complete tree labeling and build the segmentation
36

Gorce, Jean-Marie. "Analyse spectrale locale par modélisation autoregressive spatialement régularisée : application aux images de radiofréquence en échocardiographie ultrasonore". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0050.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse spectrale locale, ou l'analyse temps-fréquence des images de radiofréquence (RF) en échographie ultrasonore est délicate du fait de la non-stationnarité des signaux RF et de leur caractère fortement aléatoire, qui conduit à des variances d'estimation élevées pour des méthodes conventionnelles (spectrogramme). De plus, des changements brusques des caractéristiques spectrales locales apparaissent aux interfaces entre les différents tissus sondés. Dans ce contexte, nous proposons une méthode basée sur la modélisation autorégressive (AR), régularisée spatialement dans un cadre Bayésien. Le problème est exprimé en fonction des coefficients de réflexion associés aux modèles AR, permettant de ramener le problème de l'estimation spectrale, à chaque ordre, à un problème classique de restauration d'images, où les coefficients de réflexion constituent les données à restaurer. Une contrainte de régularisation spatiale (ou lissage) est introduite à partir de la modélisation des champs de Markov. Cette contrainte permet de réduire la forte variance des estimations tout en préservant une bonne résolution spatiale. En particulier, l'utilisation de fonctions de potentiel non quadratiques permet de préserver les changements brusques (ou discontinuités) des caractéristiques spectrales locales. Le comportement de certaines fonctions de potentiel est étudié et nous insistons l'influence de la convexité de ces fonctions sur les résultats. Nous mettons en œuvre un algorithme déterministe de minimisation intégrant simultanément les principes de non convexité graduelle et de minimisation semi-quadratique. La solution au sens du Maximum a Posteriori (MAP) est calculée en utilisant alternativement cet algorithme relativement aux coefficients de réflexion et aux termes de puissance. Les performances de l'approche proposée sont évaluées sur des simulations numériques, puis la méthode est appliquée à des images de radiofréquence acquises en échocardiographie ultrasonore
Local spectral analysis or time-frequency analysis of radio-frequency (RF) images in ultrasound echography is a difficult task due to their non-stationary and stochastic nature. These characteristics yield a high variability when conventional spectral estimation methods are used. Moreover, abrupt changes in the spectral content occur at interfaces between probed tissues. In this context, we propose a method based on autoregressive (AR) models spatially regularized in a Bayesian framework. The problem is expressed with respect to the reflection coefficients associated with AR models. This allows reducing the problem formulation to a conventional image restoration task where the reflection coefficients stand for the data to be recovered. A spatial regularization constraint (or smoothness constraint) is introduced, based on the Markovian Random Field modeling. Such constraint allows reducing the high variability of the local estimates while preserving a high spatial resolution. The use of non-quadratic potential functions pro vides a way for preserving abrupt changes (or discontinuities) in the spectral content. The behavior of several potential functions is -assessed and the influence of the Jonvexity of these functions on the results is emphasized. 1 We implement a deterministic minimization algorithm integrating both the graduated non-convexity and the half quadratic minimization principles. The solution in the sense of the Maximum a Posteriori is obtained by applying the proposed algorithm applied alternately to the reflection coefficients and the power term series. The performances of this approach are evaluated on numerical simulations and the method is applied to experimental ultrasound echocardiographic RF data
37

Menguy, Pierre-Yves. "Suivi longitudinal des endoprothèses coronaires par analyse de séquences d'images de tomographie par cohérence optique". Thesis, Clermont-Ferrand 1, 2016. http://www.theses.fr/2016CLF1MM30/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur la segmentation et la caractérisation des artères coronaires et des endoprothèses (stent) en imagerie de Tomographie par Cohérence Optique (OCT). L’OCT est une imagerie de très haute résolution qui permet d’apprécier des structures fines comme la couche intimale de la paroi vasculaire et les mailles du stent (struts). L’objectif de cette thèse est de proposer des outils logiciels autorisant l’analyse automatique d’un examen avec un temps d’exécution compatible avec une utilisation peropératoire. Ces travaux font suite à la thèse de Dubuisson en OCT, qui avait proposé un premier formalisme pour la segmentation de la lumière et la détection des struts pour les stents métalliques. Nous avons revisité la chaine de traitement pour ces deux problèmes et proposé une méthode préliminaire de détection de stents en polymère biorésorbable. Une modélisation surfacique du stent a permis d’estimer une série d’indices cliniques à partir des diamètres, surfaces et volumes mesurés sur chaque coupe ou sur l’ensemble de l’examen. L’apposition du stent par rapport à la paroi est également mesurée et visualisée en 3D avec une échelle de couleurs intuitive. La lumière artérielle est délimitée à l’aide d’un algorithme de recherche de plus court chemin de type Fast Marching. Son originalité est d’exploiter l’image sous la forme hélicoïdale native de l’acquisition. Pour la détection du stent métallique, les maxima locaux de l’image suivis d’une zone d’ombre ont été détectés et caractérisés par un vecteur d’attributs calculés dans leur voisinage (valeur relative du maximum, pente en niveau de gris, symétrie...). Les pics correspondant à des struts ont été discriminés du speckle environnant par une étape de régression logistique avec un apprentissage à partir d’une vérité terrain construite par un expert. Une probabilité d’appartenance des pics aux struts est construite à partir de la combinaison des attributs obtenue. L’originalité de la méthode réside en la fusion des probabilités des éléments proches avant d’appliquer un critère de décision lui aussi déterminé à partir de la vérité terrain. La méthode a été évaluée sur une base de données de 14 examens complets, à la fois au niveau des pixels et des struts détectés. Nous avons également validé de façon exhaustive une méthode de recalage non rigide d’images OCT exploitant des amers appariés par un expert sur les examens source et cible. L’objectif de ce recalage est de pouvoir comparer les examens coupe à coupe et les indices calculés aux mêmes positions à des temps d’acquisition différents. La fiabilité du modèle de déformation a été évaluée sur un corpus de quarante-quatre paires d’examens OCT à partir d’une technique de validation croisée par Leave-One-Out
This thesis deals with the segmentation and characterization of coronary arteries and stents in Optical Coherence Tomography (OCT) imaging. OCT is a very high resolution imaging that can appreciate fine structures such as the intimal layer of the vascular wall and stitches (struts). The objective of this thesis is to propose software tools allowing the automatic analysis of an examination with a runtime compatible with an intraoperative use. This work follows Dubuisson's thesis in OCT, which proposed a first formalism for light segmentation and strut detection for metal stents. We revisited the treatment chain for these two problems and proposed a preliminary method for detecting bioabsorbable polymer stents. Surface modeling of the stent made it possible to estimate a series of clinical indices from the diameters, surfaces and volumes measured on each section or on the entire examination. Applying the stent to the wall is also measured and visualized in 3D with an intuitive color scale. The arterial lumen is delineated using a Fast Marching short path search algorithm. Its originality is to exploit the image in the native helical form of the acquisition. For the detection of the metallic stent, the local maxima of the image followed by a shadow zone have been detected and characterized by a vector of attributes calculated in their neighborhood (relative value of the maximum, slope in gray level, symmetry ...). Peaks corresponding to struts were discriminated from the surrounding speckle by a logistic regression step with learning from a field truth constructed by an expert. A probability of belonging to the peaks to struts is constructed from the combination of attributes obtained. The originality of the method lies in the fusion of the probabilities of the close elements before applying a decision criterion also determined from the ground truth. The method was evaluated on a database of 14 complete examinations, both at the level of pixels and struts detected. We have also extensively validated a method of non-rigid registration of OCT images using bitters matched by an expert on the source and target exams. The objective of this registration is to be able to compare cut-to-cut examinations and indices calculated at the same positions at different acquisition times. The reliability of the strain model was evaluated on a corpus of forty-four pairs of OCT exams from a Leave-One-Out cross validation technique
38

Lalys, Florent. "Automatic recognition of low-level and high-level surgical tasks in the operating room from video images". Phd thesis, Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/2186a1f7-f586-43c5-b037-6585b5c22aef.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La besoin d’une meilleure intégration des nouveaux systèmes de chirurgie assisté par ordinateur dans les salles d’opération à récemment été souligné. Une nécessité pour atteindre cet objectif est de récupérer des données dans les salles d’opérations avec différents capteurs, puis de à partir de ces données de créer des modèles de processus chirurgicaux. Récemment, l'utilisation de vidéos dans la salle d'opération a démontré son efficacité pour aider à la création de système de CAO sensible au contexte. Le but de cette thèse était de présenter une nouvelle méthode pour la détection automatique de tâches haut niveaux (i. E. Phases chirurgicales) et bas-niveaux (i. E. Activités chirurgicales) à partir des vidéos des microscopes uniquement. La première étape a consisté à reconnaitre automatiquement les phases chirurgicales. L'idée fut de combiner des techniques récentes de vision par ordinateur avec une analyse temporelle. Des classifieurs furent tout d’abord mis en œuvre pour extraire des attributs visuels et ainsi caractériser chaque image, puis des algorithmes de classification de séries temporelles furent utilisés pour reconnaitre les phases. La deuxième étape a consisté à reconnaitre les activités chirurgicales. Des informations concernant des outils chirurgicaux et des structures anatomiques furent détectées et combinées avec l'information de la phase précédemment obtenu au sein d’un système de reconnaissance intelligent. Après des validations croisées sur des vidéos de neurochirurgie et de chirurgie de l’œil, nous avons obtenu des taux de reconnaissance de l'ordre de 94% pour la reconnaissance des phases et 64% pour la reconnaissance des activités. Ces systèmes de reconnaissance pourraient être utiles pour générer automatiquement des rapports post-opératoires, pour l'enseignement, l’apprentissage, mais aussi pour les futurs systèmes sensibles au contexte
The need for a better integration of new Computer-Assisted-Surgical systems in the Operating Room (OR) has been recently emphasized. One necessity to achieve this objective is to retrieve data from the OR with different sensors, then to derive models from these data for creating Surgical Process Models (SPMs). Recently, the use of videos from cameras in the OR has demonstrated its efficiency for advancing the creation of situation-aware CAS systems. The purpose of this thesis was to present a new method for the automatic detection of high-level (i. E. Surgical phases) and low-level surgical tasks (i. E. Surgical activities) from microscope video images only. The first step consisted in the detection of high-level surgical tasks. The idea was to combine state-of-the-art computer vision techniques with time series analysis. Image-based classifiers were implemented for extracting visual cues, therefore characterizing each frame of the video, and time-series algorithms were then applied to model time-varying data. The second step consisted in the detection of low-level surgical tasks. Information concerning surgical tools and anatomical structures were detected through an image-based approach and combined with the information of the current phase within a knowledge-based recognition system. Validated on neurosurgical and eye procedures, we obtained recognition rates of around 94% for the recognition of high-level tasks and 64% for low-level tasks. These recognition frameworks might be helpful for automatic post-operative report generation, learning/teaching purposes, and for future context-aware surgical systems
39

Lalys, Florent. "Automatic recognition of low-level and high-level surgical tasks in the Operating Room from video images". Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00695648.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La besoin d'une meilleure intégration des nouveaux systèmes de chirurgie assistée par ordinateur dans les salles d'opération à récemment été souligné. Une nécessité pour atteindre cet objectif est de récupérer des données dans les salles d'opérations avec différents capteurs, puis à partir de ces données de créer des modèles de processus chirurgicaux. Récemment, l'utilisation de vidéos dans la salle d'opération a démontré son efficacité pour aider à la création de systèmes de CAO sensibles au contexte. Le but de cette thèse était de présenter une nouvelle méthode pour la détection automatique de tâches haut niveaux (i.e. phases chirurgicales) et bas-niveaux (i.e. activités chirurgicales) à partir des vidéos des microscopes uniquement. La première étape a consisté à reconnaitre automatiquement les phases chirurgicales. L'idée fut de combiner des techniques récentes de vision par ordinateur avec une analyse temporelle. Des classifieurs furent tout d'abord mis en œuvre pour extraire des attributs visuels et ainsi caractériser chaque image, puis des algorithmes de classification de séries temporelles furent utilisés pour reconnaitre les phases. La deuxième étape a consisté à reconnaitre les activités chirurgicales. Des informations concernant des outils chirurgicaux et des structures anatomiques furent détectées et combinées avec l'information de la phase précédemment obtenu au sein d'un système de reconnaissance intelligent. Après des validations croisées sur des vidéos de neurochirurgie et de chirurgie de l'œil, nous avons obtenu des taux de reconnaissance de l'ordre de 94% pour la reconnaissance des phases et 64% pour la reconnaissance des activités. Ces systèmes de reconnaissance pourraient être utiles pour générer automatiquement des rapports post-opératoires, pour l'enseignement, l'apprentissage, mais aussi pour les futurs systèmes sensibles au contexte.
40

Ravaut, Frédéric. "Analyse automatique des manifestations faciales cliniques par techniques de traitement d'images : application aux manifestations de l'épilepsie". Paris 5, 1999. http://www.theses.fr/1999PA05S027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est d'apporter la précision du traitement numérique d'images et l'automatisation de certaines taches dans le processus médical d'étude des maladies paroxystiques dont les manifestations sont observables au niveau du visage. A ce titre, nous nous sommes particulièrement intéressés à certaines formes d'épilepsie. Approche totalement innovante dans la démarche diagnostique actuelle, l'analyse automatique des mouvements prend place aux cotes de l'examen clinique et electroencephalographique du patient. Elle exploite les enregistrements vidéo de crises réalisés en milieu hospitalier et utilises par les médecins à des fins d'illustration et de classification des types de crise et des syndromes épileptiques. La démarche méthodologique adoptée consiste à exploiter les séquences d'images numériques pour y étudier le mouvement apparent et réaliser une caractérisation topologique et morphologique des parties significatives du visage. L'ordonnancement des mouvements observables durant la crise, étudié par analyse de différences inter-images, est la traduction du cheminement de l'activité cérébrale anormale liée à la période critique et permet d'en retrouver la source avant propagation : le foyer epileptogene. Cette zone du cerveau focalisera alors plus particulièrement l'attention des médecins dans l'élaboration d'une solution thérapeutique. La caractérisation, qui exploite des techniques de segmentation par approche région puis la définition de paramètres mesures sur les zones segmentées, permet une quantification précise des phénomènes observes là ou n'était réalisée qu'une analyse visuelle. Cette quantification participe au début de l'évaluation chiffrée des manifestations cliniques liées a certaines formes d'épilepsie et a d'autres maladies à caractère paroxystique. Elle permettra, dans les perspectives d'évolution du système potentiellement déclenché par la détection de grapho-elements significatifs dans le tracé electroencephalographique, une reconnaissance automatique du type de crise.
41

Wojak, Julien. "Analyse d'images multimodales TEP-TDM du thorax : Application à l'oncologie : segmentation de tumeurs, d'organes à risque et suivi longitudinal pour la radiothérapie". Paris, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00567100.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En oncologie du thorax, les modalités d'imagerie de tomodensitométrie (TDM) et d'imagerie d'émission de positons (TEP) sont souvent utilisées conjointement, pour le diagnostic ou pour l'élaboration de plans de traitement. En effet, le développement d'appareils d'acquisition combinant ces deux modalités permet leur utilisation conjointe possible en routine clinique sans une difficulté préalable de recalage. Le premier objectif est de proposer des méthodes de segmentation automatiques de tumeurs ou ganglions à l'aide des deux modalités. La modalité TDM étant anatomiquement plus précise les segmentation sont réalisées dans cette modalité en utilisant l'imagerie TEP comme guide pour la localisation de la tumeur. Les organes à risque, devant être protégés des irradiations, nécessitent aussi d'être contourés. Un autre objectif est de proposer des algorithmes permettant leur segmentation. Ils s'appuient sur une connaissance a priori forte des distributions d'intensités des différents organes dans les images TDM et de connaissances a priori de formes des organes à segmenter. Un dernier objectif est de proposer une méthodologie pour la segmentation de tumeurs dans le cadre du suivi longitudinal des patients dans des images préalablement recalées. L'ensemble des méthodes de segmentation a été testé sur différents jeux de données, et lorsque des segmentations manuelles expertes sont disponibles, des résultats quantitatifs sont présentés, montrant l'intérêt des approches proposées et la précision des résultats obtenus
In oncological thoracic imaging, computerized tomography (CT) and positron emission tomography (PET) are widely used jointly, for diagnosis or treatment planing. The development of combined scanners enables the acquisition of pairs of CT-PET volumes, allowing their joint exploitation in clinical routine, without the prerequisite for complex registration. One goal of this thesis work was to propose a segmentation method jointly exploiting PET and CT image information. The proposed methodology therefore focuses on a detailed segmentation of the CT images, using PET information to guide the tumor segmentation. The framework of variational segmentation methods is used to design our algorithms and the specific constraints based on PET information. In addition to target structures for radiotherapy (tumors, nodules), organs at risk which need to be preserved from radiations, must be segmented. An additional goal of this thesis is to provide segmentation methods for these organs. The methods rely on strong a priori knowledge on the non-parametric intensity distributions and on the shapes of the different organs. A final goal of the thesis is to propose a methodological framework for the segmentation of tumors in the context of longitudinal follow up of patients with registered images. The proposed segmentation methods were tested on multiple data sets. When manual tracing is available, quantitive comparisons of the segmentations are presented, demonstrating the performance and accuracy of the proposed segmentation framework
42

Lamy, Julien. "Calcul du chemin central du côlon pour une analyse locale des pathologies". Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/LAMY_Julien_2005.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le cancer du côlon est un des types de cancer les plus fréquents dans le monde,tous sexes confondus. L'examen standard pour la détection de structures cancéreuses ou pré-cancéreuses est la coloscopie optique, peu agréable pour le patient, et pouvant présenter des risques de perforation du côlon. Il est de plus souvent impossible d'atteindre le cæcum, ce qui rend une analyse complète impossible. Les techniques de coloscopie virtuelle, apparues depuis une dizaine d'années,permettent de remplacer l'examen de coloscopie optique par un examen CT-Scan ou IRM. Un médecin peut alors réaliser une navigation à l'intérieur du côlon,sans les limitations inhérentes à la coloscopie optique : la navigation n'est plus limitée par la présence de l'endoscope, la totalité du côlon peut donc être explorée et les structures peuvent être examinées sous tous les angles. Le première partie de cette thèse présente une étude de différentes méthodes de segmentation de la lumière du côlon, par des critères photométriques. Des méthodes globales et locales y sont présentées, conduisant à un canevas commun de segmentation pour les images TDM et IRM. La seconde partie porte sur la détection du chemin central. Nous y présentons un algorithme de squelettisation et d'élagage du côlon, puis un algorithme permettant de supprimer les boucles résultant d'imperfections dans l'image originale. La troisième partie concerne la détection locale de structures cancéreuses. Afin de pouvoir travailler localement, nous donnons un algorithme de recouvrement du côlon par des sections orthogonales au chemin central de celui-ci. Ces sections nous permettent ensuite de proposer des méthodes de détection locale de structures cancéreuses
Colon cancer is one of the most frequent cause of cancer, for both genders. The standard exam to detect cancerous or pre-cancerous structures is optical colonoscopy, which has a low acceptance among patients, and presents risks of colon perforation. It is moreover often impossible to reach the cæcum, which forbids a complete analysis of the colon. Virtual colonoscopy techniques, appeared in the last ten years, allow to replace the optical colonoscopy exam by a CT or MR exam. A physician can then navigate inside the colon, without the limitations due to optical colonoscopy:the navigation is no more limitted by the presence of the endoscope, the whole colon can thus be explored, and the structures can be viewed from every angle. The first part of this thesis present different methods to segment the colon lumen, based on photometric criteria. Global and local methods are presented, leading to a common segmentation framework for CT and MR images. The second part concerns the detection of the central path. We present a skeletonization and pruning algorithm of the colon, then an algorithm to remove the loops resulting from imperfections in the original image. The third part concerns the local detection of cancerous structures. So that we can work locally, we give an algorithm to cover the colon with sections that are orthogonal to its central path. These sections allow us to propose local detection methods for cancerous structures
43

Ghandour, Sarah. "Segmentation d'images couleurs par morphologie mathématique : application aux images microscopiques". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/867.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ces travaux de thèse, nous avons proposé une nouvelle méthode de segmentation automatique et non supervisée basée sur la morphologie mathématique. D'abord, l'algorithme de segmentation développé a été appliqué sur une stratégie de segmentation marginale. Cette dernière consiste à segmenter les trois composantes rouge, vert et bleu indépendamment et à les fusionner pour obtenir l'image couleur finale traitée. Ensuite, l'analyse en composante principale (ACP) a été utilisée afin d'optimiser le temps de calcul de l'algorithme de segmentation. Une étape d'extraction d'attributs de formes et de couleurs est réalisée afin de tirer l'information sémantique contenue dans l'image. Les résultats montrent que notre méthode qui ne nécessite aucune connaissance a priori peut être adaptée à plusieurs types d'images de cytologie
Future architectures of communication systems will be more and more complex due to the need for reconfigurability in terms of frequency, emitted and received power, power consumption and reliability. One interesting and very promising technology comes under the name of RF-MEMS. In general MEMS component replaces and outperforms its counterparts. These structures will be yielded to electrostatic and/or electromagnetic strains that it is necessary to investigate and to understand the effects. Besides, power handling of those devices is one of the parameters that qualify its robustness. Since they have shown interesting functionalities for space applications, its sensitivity to radiation needs to be understood. The motivation of the thesis aims at analyzing the impact of those strains in the functional parameters (actuation voltages, switching times, insertion losses, isolation), using an appropriate reliability bench test. Clever analyses of the failure mechanisms that occur after stresses such as DC stress, ESD discharge, RF power qualification and radiation, have been performed. The stresses will be applied on various structures with various architectures and designs, in order to determine the robustness and the reliability of each technology. Finally, the validation and the new findings of these works present one design integrating ESD protection and an accelerated stress test circuit is also proposed. This thesis was being part of the framework of the European Network of Excellence AMICOM on RF Micro-systems where reliability has been defined to be a major challenge to its integration and its commercialization
44

Chesseboeuf, Clément. "Méthodes mathématiques et numériques pour la modélisation des déformations et l'analyse de texture. Applications en imagerie médicale". Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2285/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous décrivons une procédure numérique pour le recalage d'IRM cérébrales 3D. Le problème d'appariement est abordé à travers la distinction usuelle entre le modèle de déformation et le critère d'appariement. Le modèle de déformation est celui de l'anatomie computationnelle, fondé sur un groupe de difféomorphismes engendrés en intégrant des champs de vecteurs. Le décalage entre les images est évalué en comparant les lignes de niveau de ces images, représentées par un courant différentiel dans le dual d'un espace de champs de vecteurs. Le critère d'appariement obtenu est non local et rapide à calculer. On se place dans l'ensemble des difféomorphismes pour rechercher une déformation reliant les deux images. Pour cela, on minimise le critère en suivant le principe de l'algorithme sous-optimal. L'efficacité de l'algorithme est renforcée par une description eulérienne et périodique du mouvement. L'algorithme est appliqué pour le recalage d'images IRM cérébrale 3d, la procédure numérique menant à ces résultats est intégralement décrite. Nos travaux concernent aussi l'analyse des propriétés de l'algorithme. Pour cela, nous avons simplifié l'équation représentant l'évolution de l'image et étudié l'équation simplifiée en utilisant la théorie des solutions de viscosité. Nous étudions aussi le problème de détection de rupture dans la variance d'un signal aléatoire gaussien. La spécificité de notre modèle vient du cadre infill, ce qui signifie que la distribution des données dépend de la taille de l'échantillon. L'estimateur de l'instant de rupture est défini comme le point maximisant une fonction de contraste. Nous étudions la convergence de cette fonction et ensuite la convergence de l'estimateur associé. L'application la plus directe concerne l'estimation de changement dans le paramètre de Hurst d'un mouvement brownien fractionnaire. L'estimateur dépend d'un paramètre p > 0 et nos résultats montrent qu'il peut être intéressant de choisir p < 2
We present a numerical procedure for the matching of 3D MRI. The problem of image matching is addressed through the usual distinction between the deformation model and the matching criterion. The deformation model is based on the theory of computational anatomy and the set of deformations is a group of diffeomorphisms generated by integrating vector fields. The discrepancy between the two images is evaluated through comparisons of level lines represented by a differential current in the dual of a space of vector fields. This representation leads to a quickly computable non-local criterion. Then, the optimisation method is based on the minimization of the criterion following the idea of the so-called sub-optimal algorithm. We take advantage of the eulerian and periodical description of the algorithm to get an efficient numerical procedure. This algorithm can be used to deal with 3d MR images and numerical experiences are presented. In an other part, we focus on theoretical properties of the algorithm. We begin by simplifying the equation representing the evolution of the deformed image and we use the theory of viscosity solutions to study the simplified equation. The second issue we are interested in is the change-point estimation for a gaussian sequence with change in the variance parameter. The main feature of our model is that we work with infill data and the nature of the data can evolve jointly with the size of the sample. The usual approach suggests to introduce a contrast function and using the point of its maximum as a change-point estimator. We first get an information about the asymptotic fluctuations of the contrast function around its mean function. Then, we focus on the change-point estimator and more precisely on the convergence of this estimator. The most direct application concerns the detection of change in the Hurst parameter of a fractional brownian motion. The estimator depends on a parameter p > 0, generalizing the usual choice p = 2. We present some results illustrating the advantage of a parameter p < 2
45

Rey, David. "Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaques". Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00636176.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude des processus évoluant au cours du temps, comme les lésions de sclérose en plaques, peut dans certains cas être une aide considérable au diagnostic. Elle peut aussi servir au suivi d'un patient pour surveiller l'évolution de sa pathologie ou pour étudier les effets d'un nouveau traitement. Notre travail a tout d'abord consisté à choisir et à appliquer des prétraitements sur des séries d'images issues de l'imagerie par résonance magnétique (IRM) de patients atteints de sclérose en plaques ; ceci est nécessaire lorsqu'on veut mener une analyse temporelle automatique. Nous avons ensuite pu développer des méthodes de détection et de quantification des zones évolutives dans des ces images. Une première étude repose sur la comparaison de deux images en utilisant un champ de déplacements apparents d'une image vers l'autre. Ce champ de vecteurs peut être analysé par le biais d'opérateurs différentiels tels que le jacobien. Il est également possible d'extraire une segmentation des régions évolutives en 3D+t avec une telle analyse. Avec cette approche, on suppose que chaque point a une intensité fixe, et qu'il a un mouvement apparent. Une seconde étude consiste à mener une analyse statistique rétrospective sur une série complète d'images (typiquement plus de dix), en s'appuyant sur un modèle paramétrique de zone évolutive. Dans notre cas, les points dont la variation temporelle de l'intensité est significativement due à une lésion sont détectés. Les méthodes statistiques utilisées permettent de prendre en compte la cohérence spatiale des images. Pour cette seconde approche, on suppose que chaque point est immobile et que son intensité varie au cours du temps. Ces travaux ont été réalisés avec plusieurs partenaires cliniques afin de mener une étude expérimentale de nos algorithmes sous le contrôle d'experts médicaux, mais aussi d'entamer un travail de validation clinique.
46

Mansi, Tommaso. "Modèles physiologiques et statistiques du cœur guidés par imagerie médicale : application à la tétralogie de Fallot". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://tel.archives-ouvertes.fr/tel-00530956.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de cette thèse sont consacrés à la quantification de cardiopathies, la prédiction de leur évolution et la planification de thérapies, avec pour application principale la tétralogie de Fallot, une malformation congénitale grave du cœur. L'idée sous-jacente est d'utiliser des modèles informatiques sophistiqués combinant traitement d'images, statistique et physiologie, pour assister la gestion clinique de ces patients. Dans un premier temps, nous proposons une nouvelle méthode de recalage d'images plus précise pour estimer la déformation cardiaque à partir d'images médi- cales anatomiques, où seulement le mouvement apparent du cœur est visible. L'algorithme proposé s'appuie sur la méthode dite des démons, que l'on contraint de manière rigoureuse à être élastique et incompressible grâce à une nouvelle justification de l'étape de régularisation de l'algorithme. Les expériences réalisées sur des images synthétiques et réelles ont démontré que l'ajout de ces contraintes améliore de manière significative la précision des déformations estimées. Nous étudions ensuite la croissance du cœur par une approche statistique basée sur les "courants". Une analyse en composantes principales permet d'identifier des altérations morphologiques dues à la pathologie. L'utilisation conjointe de la méthode PLS (moindres carrés partiels) et de l'analyse des corrélations canoniques permet de créer un modèle statistique moyen de croissance du cœur. L'analyse du ventricule droit de 32 patients avec tétralogie de Fallot a révélé une dilatation du ventricule, une déformation de sa base et un élargissement de son apex, caractéristiques que l'on retrouve dans la littérature clinique. Le modèle de croissance montre qu'elles apparaissent progressivement au fil du temps. Enfin, nous adaptons un modèle électromécanique du cœur pour simuler la fonction cardiaque chez des patients et tester diverses stratégies de pose de valves pulmonaires. Le modèle électromécanique simule les caractéristiques principales de la fonction cardiaque. Une fois personnalisé, le modèle est utilisé pour prédire les effets postopératoires de la pose de valves chez le patient. Le modèle a été ainsi capable de reproduire, de manière qualitative, la fonction cardiaque de deux patients. Comme attendu, la fonction simulée du ventricule droit est améliorée après pose de valves, ainsi que celle du ventricule gauche, suggérant une relation étroite entre les deux ventricules du cœur. Les méthodes de traitement d'images médicales, d'analyses statistiques et de modèles de la physiologie du cœur forment un cadre puissant pour le développe- ment d'une médecine plus personnalisée et assistée par ordinateur.
47

Banga, Mbom Calvin David. "L'approche bootstrap en analyse des images : application à la restitution de la cinétique de la fuite dans la choriorétinopathie séreuse centrale". Rennes 1, 1995. http://www.theses.fr/1995REN10016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire est une contribution à l'analyse des images médicales par des méthodes de reconnaissance des formes statistique. Ces méthodes conduisent à des techniques de classification et de segmentation multidimensionnelle qui présentent un grand intérêt pour la description qualitative ou quantitative des tissus sains ou des lésions en imagerie médicale. Cependant, la complexité des algorithmes utilisés induit une lourdeur en temps de calcul qui est néfaste pour l'analyse des séquences d'images. Pour résoudre ce problème, nous proposons une approche bootstrap pour l'analyse des images bidimensionnelles. Elle est basée sur des tirages aléatoires de blocs d'observations. L'information de corrélation de l'image est ainsi conservée à l'intérieur d'un bloc, alors que les différents blocs tirés sont indépendants. Les paramètres statistiques de l'image sont estimés sur un échantillon de taille petite et optimal au sens d'un critère de représentativité préalablement défini. Le modèle proposé permet ainsi d'améliorer l'estimation en réduisant le temps de calcul. Le problème de la restitution de la cinétique de la fuite en choriorétinopathie séreuse centrale justifie la nécessité d'un tel modèle au niveau de l'application. Sa résolution passe par la double contrainte d'effectuer plusieurs segmentations des séquences d'images du fond de l'œil pendant la durée limitée d'une séance d'angiographie. L'activité de la fuite est alors évaluée par le tracé d'une courbe donnant sa surface en fonction du temps d'injection du produit de contraste pour l'aide au diagnostic de cette pathologie. Le modèle proposé ouvre une perspective pour l'utilisation de l'approche bootstrap en reconnaissance des formes, notamment en segmentation multidimensionnelle, en classification des textures et en analyse invariante
This work concerns the medical image analysis using statistical pattern recognition methods. These methods usually lead to classification and multivariage segmentation approaches that are more and more used in medical imaging for qualitative or quantitative analysis of tissue. However, statistical pattern reconigtion methods are well known to need high computing time. This assumption is not suitable for image sequences analysis. To get rid of this important problem, we suggest a bootstrap approach for two-dimensional image analysis. This model is based on the random sampling of blocks of observations in the original image. The correlation relationships are maintained in a given block, while the selected blocks are each other independent. Given an original image, we randomly select a small representative set of observations for image statistical parameters estimation. In this way, the bootstrap model improves the estimation and reduces the computing time due to the complexity of estimation algorithms used in statistical pattern recognition. The problem of the quantification of the serum leak kinetic in the Central Serous Choroiditis pathology is and important application in wich the bootstrap model we propose is fro a great need. The serum leak surface is mesures from the eye's fundus images sequence after an unsupervised segmentation sept using the bootstrap random sampling model wich we have proposed. Both a high-quality segmentation and a great reduction of etimation time are required for this application. A graph showing the serum leak surface versus the Fluorecein inection time is then plotted for helping the decision in ophtalmology. The bootstrap model wich we propose for image analysis shows the way to use the bootstrap approach for statistical parameters estimation in pattern recognition, notably in image analysis by invariance methods, in texture analysis and multivariate segmentation
48

Mcleod, Kristin. "Modèles statistiques réduits de la croissance cardiaque, du mouvement et de la circulation sanguine : application à la tétralogie de Fallot". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00942556.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente les travaux réalisés en vue de l'élaboration d'un modèle cardiaque associant croissance, mouvement et circulation sanguine pour permettre ensuite la construction d'un modèle patient à partir d'un modèle de population. Le premier axe de ce travail est la simulation de la croissance bi-ventriculaire. Un modèle existant de surface unique, calculé à l'aide de méthodes statistiques, a été généralisé à un modèle bi-ventriculaire puis appliqué à la tétralogie de Fallot (ToF). Le deuxième axe concerne la modélisation du mouvement cardiaque au niveau de la population. Un modèle d'ordre réduit basé sur un modèle Polyaffine et LogDemons a été proposé. Il simule la dynamique cardiaque avec peu de paramètres. Les paramètres de transformation sont analysés par des méthodes statistiques. Un modèle de mouvement moyen a été calculé pour représenter le mouvement standard de la population. Le troisième axe s'intéresse à la simulation de l'écoulement sanguin à l'échelle de la population. La complexité des simulations spécifiques à un patient a été réduite grâce à l'utilisation de méthodes d'analyse d'image, de dynamique des fluides numérique et de réduction d'ordre de modèle. La simulation du flux sanguin dans l'artère pulmonaire pour des patients ToF a permis de mieux comprendre l'impact du sang régurgité sur la pression et la vitesse. Étant donné nos contributions sur ces trois axes, nous sommes maintenant en bonne position pour élaborer le modèle couplé des contributions interdépendantes de la croissance, du mouvement et de l'écoulement sanguin. Ce modèle pourrait être utilisé afin d'aider la planification de la thérapie chez les patients atteints de maladies cardiaques.
49

Oussena, Baya. "Recherche et parallélisation d'un algorithme de traitement et de compression d'images médicales avec sauvegarde des détails diagnostiques : application à la détection des microcalcifications dans les images mammographiques". Paris 6, 2005. http://www.theses.fr/2005PA066035.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Glatard, Tristan. "Description, deployment and optimization of medical image analysis workflows on production grids". Nice, 2007. http://www.theses.fr/2007NICE4049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Grids are interesting platforms for supporting the development of medical image analysis applications: they enable data and algorithms sharing and provide huge amounts of computing power and data storage. In this thesis, we investigate a medical image analysis problem that turns out to be a typical dimensioning application for grids, thus leading to develop new workflow description, implementation and optimization methods and tools. The basic application problem is the evaluation of medical image registration algorithms in absence of ground truth. Results obtained with a statistical method applied to a registration problem dealing with the follow-up of brain tumors in radiotherapy are presented. Those results allow to detect subtle flaws among the data. We extend this validation scheme in order to quantify the impact of lossy image compression on registration algorithms. This application is representative of typical grid problems so that we study its deployment and execution on such infrastructures. We adopt a generic workflow model to ease the application parallelization on a grid infrastructure. A novel taxonomy of workflow approaches is presented. Based on it, we select a suitable workflow language and we design and implement MOTEUR, an enactor exploiting all the parallelism levels of workflow applications. A new data composition operator is also defined, easing the description of medical image analysis applications on grids. Benchmarks on the EGEE production grid compared to controlled conditions on Grid'5000 reveal that the grid latency and its variability lead to strong performance drops. Therefore, we propose a probabilistic model of the execution time of a grid workflow. This model is user-centric: the whole grid is considered as a black-box introducing a random latency on the execution time of a job. Based on this model, we propose three optimization strategies aiming at reducing the impact of the grid latency and of its variability: (1) grouping sequentially linked jobs reduces the mean latency faced by a workflow, (2) optimizing the timeout value of jobs reduces the impact of outliers and (3) optimizing the jobs granularity reduces the risk to face high latencies. Significant speed-up are yielded by those strategies
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : (1) dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, (2) optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et (3) optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues

Vai alla bibliografia