Letteratura scientifica selezionata sul tema "MRF, Champ aléatoire de Markov"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "MRF, Champ aléatoire de Markov".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Indice

  1. Tesi

Tesi sul tema "MRF, Champ aléatoire de Markov":

1

Gasnier, Nicolas. "Use of multi-temporal and multi-sensor data for continental water body extraction in the context of the SWOT mission". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La télédétection spatiale fournit aux hydrologues et aux décideurs des données indispensables à la compréhension du cycle de l’eau et à la gestion des ressources et risques associés. Le satellite SWOT, qui est une collaboration entre les agences spatiales françaises (CNES) et américaine (NASA, JPL), et dont le lancement est prévu en 2022 vise à mesurer la hauteur des lacs, rivières et océans avec une grande résolution spatiale. Il complétera ainsi les capteurs existants, comme les constellations SAR et optique Sentinel-1 et 2 et les relevés in situ. SWOT représente une rupture technologique car il est le premier satellite qui embarque un altimètre de fauchée quasi-nadir. Le calcul des hauteurs d’eau est fait par interférométrie sur les images SAR acquises par SWOT. La détection d’eau dans ces images est donc une étape essentielle du traitement des données SWOT, mais qui peut être difficile, en particulier avec un faible rapport signal sur bruit ou en présence de radiométries inhabituelles. Dans cette thèse, nous cherchons à développer de nouvelles méthodes pour rendre la détection d’eau plus robustes. Pour cela, nous nous intéressons à l’utilisation de données exogènes pour guider la détection, à la combinaison de données multi-temporelles et multi-capteurs et à des approches de débruitage. La première méthode proposée exploite les informations de la base de donnée des rivières utilisée par SWOT pour détecter les rivières fines dans l’image de façon robuste à la fois aux bruit dans l’image, aux erreurs éventuelles de la base de données et aux changements survenus. Cette méthode s’appuie sur un nouveau détecteur de structures linéiques, un algorithme de chemin de moindre coût et une nouvelle méthode de segmentation par CRF qui combine des termes d’attache aux données et de régularisation adaptés au problème. Nous avons également proposé une méthode dérivée des GrabCut qui utilise un polygone a priori contenant un lac pour le détecter sur une image SAR ou une série temporelle. Dans ce cadre, nous avons également étudié le recours à une combinaison multi-temporelle et multi-capteurs (optique et SAR). Enfin, dans le cadre d’une étude préliminaire sur les méthodes de débruitage pour la détection d’eau nous avons étudié les propriétés statistiques de la moyenne géométrique temporelle et proposé une adaptation de la méthode variationnelle MuLoG pour la débruiter
Spaceborne remote sensing provides hydrologists and decision-makers with data that are essential for understanding the water cycle and managing the associated resources and risks. The SWOT satellite, which is a collaboration between the French (CNES) and American (NASA, JPL) space agencies, is scheduled for launch in 2022 and will measure the height of lakes, rivers, and oceans with high spatial resolution. It will complement existing sensors, such as the SAR and optical constellations Sentinel-1 and 2, and in situ measurements. SWOT represents a technological breakthrough as it is the first satellite to carry a near-nadir swath altimeter. The estimation of water levels is done by interferometry on the SAR images acquired by SWOT. Detecting water in these images is therefore an essential step in processing SWOT data, but it can be very difficult, especially with low signal-to-noise ratios, or in the presence of unusual radiometries. In this thesis, we seek to develop new methods to make water detection more robust. To this end, we focus on the use of exogenous data to guide detection, the combination of multi-temporal and multi-sensor data and denoising approaches. The first proposed method exploits information from the river database used by SWOT (derived from GRWL) to detect narrow rivers in the image in a way that is robust to both noise in the image, potential errors in the database, and temporal changes. This method relies on a new linear structure detector, a least-cost path algorithm, and a new Conditional Random Field segmentation method that combines data attachment and regularization terms adapted to the problem. We also proposed a method derived from GrabCut that uses an a priori polygon containing a lake to detect it on a SAR image or a time series of SAR images. Within this framework, we also studied the use of a multi-temporal and multi-sensor combination between Sentinel-1 SAR and Sentinel-2 optical images. Finally, as part of a preliminary study on denoising methods applied to water detection, we studied the statistical properties of the geometric temporal mean and proposed an adaptation of the variational method MuLoG to denoise it
2

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés". Grenoble, 2010. http://www.theses.fr/2010GRENM053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
3

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
4

Besbes, Ahmed. "Image segmentation using MRFs and statistical shape modeling". Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00594246.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans cette thèse un nouveau modèle statistique de forme et l'utilisons pour la segmentation d'images avec a priori. Ce modèle est représenté par un champ de Markov. Les noeuds du graphe correspondent aux points de contrôle situés sur le contour de la forme géométrique, et les arêtes du graphe représentent les dépendances entre les points de contrôle. La structure du champ de Markov est déterminée à partir d'un ensemble de formes, en utilisant des techniques d'apprentissage de variétés et de groupement non-supervisé. Les contraintes entre les points sont assurées par l'estimation des fonctions de densité de probabilité des longueurs de cordes normalisées. Dans une deuxième étape, nous construisons un algorithme de segmentation qui intègre le modèle statistique de forme, et qui le relie à l'image grâce à un terme région, à travers l'utilisation de diagrammes de Voronoi. Dans cette approche, un contour de forme déformable évolue vers l'objet à segmenter. Nous formulons aussi un algorithme de segmentation basé sur des détecteurs de points d'intérêt, où le terme de régularisation est lié à l'apriori de forme. Dans ce cas, on cherche à faire correspondre le modèle aux meilleurs points candidats extraits de l'image par le détecteur. L'optimisation pour les deux algorithmes est faite en utilisant des méthodes récentes et efficaces. Nous validons notre approche à travers plusieurs jeux de données en 2D et en 3D, pour des applications de vision par ordinateur ainsi que l'analyse d'images médicales.
5

Xiang, Bo. "Knowledge-based image segmentation using sparse shape priors and high-order MRFs". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0066/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans cette thèse une approche nouvelle de la segmentation d’images, avec des descripteurs a priori utilisant des champs de Markov d’ordre supérieur. Nous représentons le modèle de forme par un graphe de distribution de points qui décrit les informations a priori des invariants de pose grâce à des cliques L1 discrètes d’ordre supérieur. Chaque clique de triplet décrit les variations statistiques locales de forme par des mesures d’angle,ce qui assure l’invariance aux transformations globales (translation, rotation et échelle). L’apprentissage d’une structure de graphe discret d’ordre supérieur est réalisé grâce à l’apprentissage d’un champ de Markov aléatoire utilisant une décomposition duale, ce qui renforce son efficacité tout en préservant sa capacité à rendre compte des variations.Nous introduisons la connaissance a priori d’une manière innovante pour la segmentation basée sur un modèle. Le problème de la segmentation est ici traité par estimation statistique d’un maximum a posteriori (MAP). L’optimisation des paramètres de la modélisation- c’est à dire de la position des points de contrôle - est réalisée par le calcul d’une fonction d’énergie globale de champs de Markov (MRF). On combine ainsi les calculs statistiques régionaux et le suivi des frontières avec la connaissance a priori de la forme.Les descripteurs invariants sont estimés par des potentiels de Markov d’ordre 2, tandis que les caractéristiques régionales sont transposées dans un espace de caractéristiques et calculées grâce au théorème de la Divergence.De plus, nous proposons une nouvelle approche pour la segmentation conjointe de l’image et de sa modélisation ; cette méthode permet d’obtenir une segmentation plus fine lorsque la délimitation précise d’un objet est recherchée. Un modèle graphique combinant l’information a priori et les informations de pixel est développé pour réaliser l’unité des modules "top-down" et "bottom-up". La cohérence entre l’image et sa modélisation est assurée par une décomposition qui associe les parties du modèle avec la labellisation de chaque pixel.Les deux champs de Markov d’ordre supérieur considérés sont optimisés par les algorithmes de l’état de l’art. Les résultats prometteurs dans les domaines de la vision par ordinateur et de l’imagerie médicale montrent le potentiel de cette méthode appliquée à la segmentation
In this thesis, we propose a novel framework for knowledge-based segmentation using high-order Markov Random Fields (MRFs). We represent the shape model as a point distribution graphical model which encodes pose invariant shape priors through L1 sparse higher order cliques. Each triplet clique encodes the local shape variation statistics on the angle measurements which inherit invariance to global transformations (i.e. translation,rotation and scale). A sparse higher-order graph structure is learned through MRF training using dual decomposition, producing boosting efficiency while preserving its ability to represent the shape variation.We incorporate the prior knowledge in a novel framework for model-based segmentation.We address the segmentation problem as a maximum a posteriori (MAP) estimation in a probabilistic framework. A global MRF energy function is defined to jointly combine regional statistics, boundary support as well as shape prior knowledge for estimating the optimal model parameters (i.e. the positions of the control points). The pose-invariant priors are encoded in second-order MRF potentials, while regional statistics acting on a derived image feature space can be exactly factorized using Divergence theorem. Furthermore, we propose a novel framework for joint model-pixel segmentation towardsa more refined segmentation when exact boundary delineation is of interest. Aunified model-based and pixel-driven integrated graphical model is developed to combine both top-down and bottom-up modules simultaneously. The consistency between the model and the image space is introduced by a model decomposition which associates the model parts with pixels labeling. Both of the considered higher-order MRFs are optimized efficiently using state-of the-art MRF optimization algorithms. Promising results on computer vision and medical image applications demonstrate the potential of the proposed segmentation methods
6

Fongang, Léon. "Aspects prédictifs des interactions tissus-implant par analyses multi-échelles en imagerie : mise en évidence intraleucocytaires de microtextures décrivant un champ aléatoire markovien". Nice, 1993. http://www.theses.fr/1993NICE4707.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Par des opérateurs d'analyses d'images et de traitements du signal adaptes aux spécificités biologiques, on quantifie les textures cellulaires de tissus osseux et hématologiques avec : 1) mise en évidence par un modèle mathématique d'une mémoire cellulaire dérivant d'un champ aléatoire markovien, fonctionnant sur les variations d'homogénéité et de contraintes de statistiques du second ordre, associée aux états métaboliques caractérisant la vie cellulaire dans certaines bandes énergétiques. 2) classification morphologique et texturale des cellules suivant un concept de champ de rayons-vecteurs (crv) ou les aspects microscopiques et macroscopiques intra-cellulaires interviennent dans la détermination du contour de ces cellules. Une procédure d'indexage des rayons-vecteurs (rv), ou les algorithmes classiques de rotations et de translations sont exclus, permet une réorientation spatiale fictive des objets à comparer. La mise en correspondance des rv donne un signal de forme (sf) conduisant à une quantification du degré de ressemblance entre les objets examines. 3) Un nouveau concept quantifiant l'homogénéité des textures de zones peri-implantologiques par analyses morphologiques multi-échelles permet des évaluations prédictives de l'évolution de ces tissus lors de régénérations normales ou de leurs restructurations plus ou moins altérées
Human bone and hematologic celle textures are evaluated by the way of fittes biomedical image and signal processsing operators. In the present work, we report a set of algorithmic procedures leading to : 1) a mathematical modeling « cell memory ». That model i related to homogeneity variations associated to the metabolic states which characterize the cell life inside « energetic bands ». The second order statistical means of blood cell microscopic textures agree with those resulting form the markovian random field. 2) A morphological and textural cell classification based on the concept of « field ray-vectorrs » (CRV). Inside that CRV, the micro- and macroscopic aspects of the cell specificities are taken into account fot the contour determination. An indexing method of « Ray Vectors » (RV) leads to a « fictive » (not physically) reorientation of objects, the specific algorithms of rotations and tranlations being excluded. Matched RV give a « shape-signal » (SF) in relation to each object and leads to quantify the degree of similarity between objects. 3) A new concept found upon the morphological multi-scale analysis allowing the quantification of periimplant texture homogeneity and, the predictive evaluations of bone tissue evolutions during the regeneration r after normal or abnormal restructuration which can be more or less altered
7

Lê-Huu, Dien Khuê. "Nonconvex Alternating Direction Optimization for Graphs : Inference and Learning". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente nos contributions àl’inférence et l’apprentissage des modèles graphiquesen vision artificielle. Tout d’abord, nous proposons unenouvelle classe d’algorithmes de décomposition pour résoudrele problème d’appariement de graphes et d’hypergraphes,s’appuyant sur l’algorithme des directionsalternées (ADMM) non convexe. Ces algorithmes sontefficaces en terme de calcul et sont hautement parallélisables.En outre, ils sont également très générauxet peuvent être appliqués à des fonctionnelles d’énergiearbitraires ainsi qu’à des contraintes de correspondancearbitraires. Les expériences montrent qu’ils surpassentles méthodes de pointe existantes sur des benchmarkspopulaires. Ensuite, nous proposons une relaxationcontinue non convexe pour le problème d’estimationdu maximum a posteriori (MAP) dans les champsaléatoires de Markov (MRFs). Nous démontrons quecette relaxation est serrée, c’est-à-dire qu’elle est équivalenteau problème original. Cela nous permet d’appliquerdes méthodes d’optimisation continue pour résoudrele problème initial discret sans perte de précisionaprès arrondissement. Nous étudions deux méthodes degradient populaires, et proposons en outre une solutionplus efficace utilisant l’ADMM non convexe. Les expériencessur plusieurs problèmes réels démontrent quenotre algorithme prend l’avantage sur ceux de pointe,dans différentes configurations. Finalement, nous proposonsune méthode d’apprentissage des paramètres deces modèles graphiques avec des données d’entraînement,basée sur l’ADMM non convexe. Cette méthodeconsiste à visualiser les itérations de l’ADMM commeune séquence d’opérations différenciables, ce qui permetde calculer efficacement le gradient de la perted’apprentissage par rapport aux paramètres du modèle.L’apprentissage peut alors utiliser une descente de gradientstochastique. Nous obtenons donc un frameworkunifié pour l’inférence et l’apprentissage avec l’ADMMnon-convexe. Grâce à sa flexibilité, ce framework permetégalement d’entraîner conjointement de-bout-en-boutun modèle graphique avec un autre modèle, telqu’un réseau de neurones, combinant ainsi les avantagesdes deux. Nous présentons des expériences sur un jeude données de segmentation sémantique populaire, démontrantl’efficacité de notre méthode
This thesis presents our contributions toinference and learning of graph-based models in computervision. First, we propose a novel class of decompositionalgorithms for solving graph and hypergraphmatching based on the nonconvex alternating directionmethod of multipliers (ADMM). These algorithms arecomputationally efficient and highly parallelizable. Furthermore,they are also very general and can be appliedto arbitrary energy functions as well as arbitraryassignment constraints. Experiments show that theyoutperform existing state-of-the-art methods on popularbenchmarks. Second, we propose a nonconvex continuousrelaxation of maximum a posteriori (MAP) inferencein discrete Markov random fields (MRFs). Weshow that this relaxation is tight for arbitrary MRFs.This allows us to apply continuous optimization techniquesto solve the original discrete problem withoutloss in accuracy after rounding. We study two populargradient-based methods, and further propose a more effectivesolution using nonconvex ADMM. Experimentson different real-world problems demonstrate that theproposed ADMM compares favorably with state-of-theartalgorithms in different settings. Finally, we proposea method for learning the parameters of these graphbasedmodels from training data, based on nonconvexADMM. This method consists of viewing ADMM iterationsas a sequence of differentiable operations, whichallows efficient computation of the gradient of the trainingloss with respect to the model parameters, enablingefficient training using stochastic gradient descent. Atthe end we obtain a unified framework for inference andlearning with nonconvex ADMM. Thanks to its flexibility,this framework also allows training jointly endto-end a graph-based model with another model suchas a neural network, thus combining the strengths ofboth. We present experiments on a popular semanticsegmentation dataset, demonstrating the effectivenessof our method
8

Pereyra, Marcelo. "Statistical modeling and processing of high frequency ultrasound images : application to dermatologic oncology". Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0044/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie le traitement statistique des images d’ultrasons de haute fréquence, avec application à l’exploration in-vivo de la peau humaine et l’évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d’images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L’enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l’image ultrason de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L’approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d’ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l’estimation du paramètre B de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings “sans vraisemblance” fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre B est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d’Ising et de Potts
This thesis studies statistical image processing of high frequency ultrasound imaging, with application to in-vivo exploration of human skin and noninvasive lesion assessment. More precisely, Bayesian methods are considered in order to perform tissue segmentation in ultrasound images of skin. It is established that ultrasound signals backscattered from skin tissues converge to a complex Levy Flight random process with non-Gaussian _-stable statistics. The envelope signal follows a generalized (heavy-tailed) Rayleigh distribution. Based on these results, it is proposed to model the distribution of multiple-tissue ultrasound images as a spatially coherent finite mixture of heavy-tailed Rayleigh distributions. Spatial coherence inherent to biological tissues is modeled by a Potts Markov random field. An original Bayesian algorithm combined with a Markov chain Monte Carlo method is then proposed to jointly estimate the mixture parameters and a label-vector associating each voxel to a tissue. The proposed method is successfully applied to the segmentation of in-vivo skin tumors in high frequency 2D and 3D ultrasound images. This method is subsequently extended by including the estimation of the Potts regularization parameter B within the Markov chain Monte Carlo (MCMC) algorithm. Standard MCMC methods cannot be applied to this problem because the likelihood of B is intractable. This difficulty is addressed by using a likelihood-free Metropolis-Hastings algorithm based on the sufficient statistic of the Potts model. The resulting unsupervised segmentation method is successfully applied to tridimensional ultrasound images. Finally, the problem of computing the Cramer-Rao bound (CRB) of B is studied. The CRB depends on the derivatives of the intractable normalizing constant of the Potts model. This is resolved by proposing an original Monte Carlo algorithm, which is successfully applied to compute the CRB of the Ising and Potts models
9

Kornaropoulos, Evgenios. "Enregistrement d'Image Déformable en Groupe pour l'Estimation de Mouvement en Imagerie Médicale en 4D". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC042/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La présente thèse propose des méthodes pour l'estimation du mouvement des organes d'un patient autravers de l'imagerie tomographique. Le but est la correction du mouvement spatio-temporel sur les imagesmédicales tomographiques. En tant que paradigme expérimental, nous considérons le problème de l'estimation dumouvement dans l'imagerie IRM de diffusion, une modalité d'imagerie sensible à la diffusion des molécules d'eaudans le corps. Le but de ces travaux de thèse est l'évaluation des patients atteints de lymphome, car l'eau diffusedifféremment dans les tissus biologiques sains et dans les lésions. L'effet de la diffusion de l'eau peut être mieuxreprésenté par une image paramétrique, grâce au coefficient de diffusion apparente (image à ADC), créé sur la based'une série d'images DWI du même patient (séquence d'images 3D), acquises au moment de la numérisation. Unetelle image paramétrique a la possibilité de devenir un biomarqueur d'imagerie d’IRM et de fournir aux médecinsdes informations complémentaires concernantl'image de FDG-PET qui est la méthode d'imagerie de base pour lelymphome et qui montre la quantité de glucose métabolisée.Nos principales contributions sont au nombre de trois. Tout d'abord, nous proposons une méthode de recalaged'image déformable en groupe spécialement conçue pour la correction de mouvement dans l’IRM de diffusion, carelle est guidée par un modèle physiologique décrivant le processus de diffusion qui se déroule lors de l'acquisitionde l'image. Notre méthode détermine une image à ADC de plus grande précision en termes de représentation dugradient de la diffusion des molécules d'eau par rapport à l` image correspondante obtenue par pratique couranteou par d'autres méthodes de recalage d'image non basé sur un modèle. Deuxièmement, nous montrons qu'enimposant des contraintes spatiales sur le calcul de l'image à ADC, les tumeurs de l'image peuvent être encore mieuxcaractérisées en les classant dans les différentes catégories liées à la maladie. Troisièmement, nous montronsqu'une corrélation entre DWI et FDG-PET doit exister en examinant la corrélation entre les caractéristiquesstatistiques extraites par l'image à ADC lisse découlant de notre méthode du recalage d’image déformable et lesscores de recommandation sur la malignité des lésions, donnés par des experts basés sur une évaluation des imagesFDG-PET correspondantes du patient
This doctoral thesis develops methods to estimate patient's motion, voluntary and involuntary (organs'motion), in order to correct for motion in spatiotemporal tomographic medical images. As an experimentalparadigm we consider the problem of motion estimation in Diffusion-Weighted Magnetic Resonance Imaging (DWI),an imaging modality sensitive to the diffusion of water molecules in the body. DWI is used for the evaluation oflymphoma patients, since water diffuses differently in healthy tissues and in lesions. The effect of water diffusioncan be better depicted through a parametric map, the so-called apparent diffusion coefficient (ADC map), createdbased on a series of DW images of the same patient (3D image sequence), acquired in time during scanning. Such aparametric map has the potentiality to become an imaging biomarker in DWI and provide physicians withcomplementary information to current state-of-the-art FDG-PET imaging reflecting quantitatively glycosemetaboslism.Our contributions are three fold. First, we propose a group-wise deformable image registration methodespecially designed for motion correction in DWI, as it is guided by a physiological model describing the diffusionprocess taking place during image acquisition. Our method derives an ADC map of higher accuracy in terms ofdepicting the gradient of the water molecules' diffusion in comparison to the corresponding map derived bycommon practice or by other model-free group-wise image registration methods. Second, we show that by imposingspatial constraints on the computation of the ADC map, the tumours in the image can be even better characterized interms of classifying them into the different types of the disease. Third, we show that a correlation between DWI andFDG-PET should exist by examining the correlation between statistical features extracted by the smooth ADC mapderived by our deformable registration method, and recommendation scores on the malignancy of the lesions, givenby experts based on an evaluation of the corresponding FDG-PET images of the patient
10

Le, bars Batiste. "Event detection and structure inference for graph vectors". Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde différents problèmes autour de l'analyse et la modélisation de signaux sur graphes, autrement dit des données vectorielles observées sur des graphes. Nous nous intéressons en particulier à deux tâches spécifique. La première est le problème de détection d'événements, c'est-à-dire la détection d'anomalies ou de ruptures, dans un ensemble de vecteurs sur graphes. La seconde tâche consiste en l'inférence de la structure de graphe sous-jacente aux vecteurs contenus dans un ensemble de données. Dans un premier temps notre travail est orienté vers l'application. Nous proposons une méthode pour détecter des pannes ou des défaillances d'antenne dans un réseau de télécommunication.La méthodologie proposée est conçue pour être efficace pour des réseaux de communication au sens large et tient implicitement compte de la structure sous-jacente des données. Dans un deuxième temps, une nouvelle méthode d'inférence de graphes dans le cadre du Graph Signal Processing est étudiée. Dans ce problème, des notions de régularité local et global, par rapport au graphe sous-jacent, sont imposées aux vecteurs. Enfin, nous proposons de combiner la tâche d'apprentissage des graphes avec le problème de détection de ruptures. Cette fois, un cadre probabiliste est considéré pour modéliser les vecteurs, supposés ainsi être distribués selon un certain champ aléatoire de Markov. Dans notre modélisation, le graphe sous-jacent aux données peut changer dans le temps et un point de rupture est détecté chaque fois qu'il change de manière significative
This thesis addresses different problems around the analysis and the modeling of graph signals i.e. vector data that are observed over graphs. In particular, we are interested in two tasks. The rst one is the problem of event detection, i.e. anomaly or changepoint detection, in a set of graph vectors. The second task concerns the inference of the graph structure underlying the observed graph vectors contained in a data set. At first, our work takes an application oriented aspect in which we propose a method for detecting antenna failures or breakdowns in a telecommunication network. The proposed approach is designed to be eective for communication networks in a broad sense and it implicitly takes into account the underlying graph structure of the data. In a second time, a new method for graph structure inference within the framework of Graph Signal Processing is investigated. In this problem, notions of both local and globalsmoothness, with respect to the underlying graph, are imposed to the vectors.Finally, we propose to combine the graph learning task with the change-point detection problem. This time, a probabilistic framework is considered to model the vectors, assumed to be distributed from a specifc Markov Random Field. In the considered modeling, the graph underlying the data is allowed to evolve in time and a change-point is actually detected whenever this graph changes significantly

Vai alla bibliografia