Tesi sul tema "MRF, Champ aléatoire de Markov"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: MRF, Champ aléatoire de Markov.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-20 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "MRF, Champ aléatoire de Markov".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Gasnier, Nicolas. "Use of multi-temporal and multi-sensor data for continental water body extraction in the context of the SWOT mission". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La télédétection spatiale fournit aux hydrologues et aux décideurs des données indispensables à la compréhension du cycle de l’eau et à la gestion des ressources et risques associés. Le satellite SWOT, qui est une collaboration entre les agences spatiales françaises (CNES) et américaine (NASA, JPL), et dont le lancement est prévu en 2022 vise à mesurer la hauteur des lacs, rivières et océans avec une grande résolution spatiale. Il complétera ainsi les capteurs existants, comme les constellations SAR et optique Sentinel-1 et 2 et les relevés in situ. SWOT représente une rupture technologique car il est le premier satellite qui embarque un altimètre de fauchée quasi-nadir. Le calcul des hauteurs d’eau est fait par interférométrie sur les images SAR acquises par SWOT. La détection d’eau dans ces images est donc une étape essentielle du traitement des données SWOT, mais qui peut être difficile, en particulier avec un faible rapport signal sur bruit ou en présence de radiométries inhabituelles. Dans cette thèse, nous cherchons à développer de nouvelles méthodes pour rendre la détection d’eau plus robustes. Pour cela, nous nous intéressons à l’utilisation de données exogènes pour guider la détection, à la combinaison de données multi-temporelles et multi-capteurs et à des approches de débruitage. La première méthode proposée exploite les informations de la base de donnée des rivières utilisée par SWOT pour détecter les rivières fines dans l’image de façon robuste à la fois aux bruit dans l’image, aux erreurs éventuelles de la base de données et aux changements survenus. Cette méthode s’appuie sur un nouveau détecteur de structures linéiques, un algorithme de chemin de moindre coût et une nouvelle méthode de segmentation par CRF qui combine des termes d’attache aux données et de régularisation adaptés au problème. Nous avons également proposé une méthode dérivée des GrabCut qui utilise un polygone a priori contenant un lac pour le détecter sur une image SAR ou une série temporelle. Dans ce cadre, nous avons également étudié le recours à une combinaison multi-temporelle et multi-capteurs (optique et SAR). Enfin, dans le cadre d’une étude préliminaire sur les méthodes de débruitage pour la détection d’eau nous avons étudié les propriétés statistiques de la moyenne géométrique temporelle et proposé une adaptation de la méthode variationnelle MuLoG pour la débruiter
Spaceborne remote sensing provides hydrologists and decision-makers with data that are essential for understanding the water cycle and managing the associated resources and risks. The SWOT satellite, which is a collaboration between the French (CNES) and American (NASA, JPL) space agencies, is scheduled for launch in 2022 and will measure the height of lakes, rivers, and oceans with high spatial resolution. It will complement existing sensors, such as the SAR and optical constellations Sentinel-1 and 2, and in situ measurements. SWOT represents a technological breakthrough as it is the first satellite to carry a near-nadir swath altimeter. The estimation of water levels is done by interferometry on the SAR images acquired by SWOT. Detecting water in these images is therefore an essential step in processing SWOT data, but it can be very difficult, especially with low signal-to-noise ratios, or in the presence of unusual radiometries. In this thesis, we seek to develop new methods to make water detection more robust. To this end, we focus on the use of exogenous data to guide detection, the combination of multi-temporal and multi-sensor data and denoising approaches. The first proposed method exploits information from the river database used by SWOT (derived from GRWL) to detect narrow rivers in the image in a way that is robust to both noise in the image, potential errors in the database, and temporal changes. This method relies on a new linear structure detector, a least-cost path algorithm, and a new Conditional Random Field segmentation method that combines data attachment and regularization terms adapted to the problem. We also proposed a method derived from GrabCut that uses an a priori polygon containing a lake to detect it on a SAR image or a time series of SAR images. Within this framework, we also studied the use of a multi-temporal and multi-sensor combination between Sentinel-1 SAR and Sentinel-2 optical images. Finally, as part of a preliminary study on denoising methods applied to water detection, we studied the statistical properties of the geometric temporal mean and proposed an adaptation of the variational method MuLoG to denoise it
2

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés". Grenoble, 2010. http://www.theses.fr/2010GRENM053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
3

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
4

Besbes, Ahmed. "Image segmentation using MRFs and statistical shape modeling". Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00594246.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans cette thèse un nouveau modèle statistique de forme et l'utilisons pour la segmentation d'images avec a priori. Ce modèle est représenté par un champ de Markov. Les noeuds du graphe correspondent aux points de contrôle situés sur le contour de la forme géométrique, et les arêtes du graphe représentent les dépendances entre les points de contrôle. La structure du champ de Markov est déterminée à partir d'un ensemble de formes, en utilisant des techniques d'apprentissage de variétés et de groupement non-supervisé. Les contraintes entre les points sont assurées par l'estimation des fonctions de densité de probabilité des longueurs de cordes normalisées. Dans une deuxième étape, nous construisons un algorithme de segmentation qui intègre le modèle statistique de forme, et qui le relie à l'image grâce à un terme région, à travers l'utilisation de diagrammes de Voronoi. Dans cette approche, un contour de forme déformable évolue vers l'objet à segmenter. Nous formulons aussi un algorithme de segmentation basé sur des détecteurs de points d'intérêt, où le terme de régularisation est lié à l'apriori de forme. Dans ce cas, on cherche à faire correspondre le modèle aux meilleurs points candidats extraits de l'image par le détecteur. L'optimisation pour les deux algorithmes est faite en utilisant des méthodes récentes et efficaces. Nous validons notre approche à travers plusieurs jeux de données en 2D et en 3D, pour des applications de vision par ordinateur ainsi que l'analyse d'images médicales.
5

Xiang, Bo. "Knowledge-based image segmentation using sparse shape priors and high-order MRFs". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0066/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans cette thèse une approche nouvelle de la segmentation d’images, avec des descripteurs a priori utilisant des champs de Markov d’ordre supérieur. Nous représentons le modèle de forme par un graphe de distribution de points qui décrit les informations a priori des invariants de pose grâce à des cliques L1 discrètes d’ordre supérieur. Chaque clique de triplet décrit les variations statistiques locales de forme par des mesures d’angle,ce qui assure l’invariance aux transformations globales (translation, rotation et échelle). L’apprentissage d’une structure de graphe discret d’ordre supérieur est réalisé grâce à l’apprentissage d’un champ de Markov aléatoire utilisant une décomposition duale, ce qui renforce son efficacité tout en préservant sa capacité à rendre compte des variations.Nous introduisons la connaissance a priori d’une manière innovante pour la segmentation basée sur un modèle. Le problème de la segmentation est ici traité par estimation statistique d’un maximum a posteriori (MAP). L’optimisation des paramètres de la modélisation- c’est à dire de la position des points de contrôle - est réalisée par le calcul d’une fonction d’énergie globale de champs de Markov (MRF). On combine ainsi les calculs statistiques régionaux et le suivi des frontières avec la connaissance a priori de la forme.Les descripteurs invariants sont estimés par des potentiels de Markov d’ordre 2, tandis que les caractéristiques régionales sont transposées dans un espace de caractéristiques et calculées grâce au théorème de la Divergence.De plus, nous proposons une nouvelle approche pour la segmentation conjointe de l’image et de sa modélisation ; cette méthode permet d’obtenir une segmentation plus fine lorsque la délimitation précise d’un objet est recherchée. Un modèle graphique combinant l’information a priori et les informations de pixel est développé pour réaliser l’unité des modules "top-down" et "bottom-up". La cohérence entre l’image et sa modélisation est assurée par une décomposition qui associe les parties du modèle avec la labellisation de chaque pixel.Les deux champs de Markov d’ordre supérieur considérés sont optimisés par les algorithmes de l’état de l’art. Les résultats prometteurs dans les domaines de la vision par ordinateur et de l’imagerie médicale montrent le potentiel de cette méthode appliquée à la segmentation
In this thesis, we propose a novel framework for knowledge-based segmentation using high-order Markov Random Fields (MRFs). We represent the shape model as a point distribution graphical model which encodes pose invariant shape priors through L1 sparse higher order cliques. Each triplet clique encodes the local shape variation statistics on the angle measurements which inherit invariance to global transformations (i.e. translation,rotation and scale). A sparse higher-order graph structure is learned through MRF training using dual decomposition, producing boosting efficiency while preserving its ability to represent the shape variation.We incorporate the prior knowledge in a novel framework for model-based segmentation.We address the segmentation problem as a maximum a posteriori (MAP) estimation in a probabilistic framework. A global MRF energy function is defined to jointly combine regional statistics, boundary support as well as shape prior knowledge for estimating the optimal model parameters (i.e. the positions of the control points). The pose-invariant priors are encoded in second-order MRF potentials, while regional statistics acting on a derived image feature space can be exactly factorized using Divergence theorem. Furthermore, we propose a novel framework for joint model-pixel segmentation towardsa more refined segmentation when exact boundary delineation is of interest. Aunified model-based and pixel-driven integrated graphical model is developed to combine both top-down and bottom-up modules simultaneously. The consistency between the model and the image space is introduced by a model decomposition which associates the model parts with pixels labeling. Both of the considered higher-order MRFs are optimized efficiently using state-of the-art MRF optimization algorithms. Promising results on computer vision and medical image applications demonstrate the potential of the proposed segmentation methods
6

Fongang, Léon. "Aspects prédictifs des interactions tissus-implant par analyses multi-échelles en imagerie : mise en évidence intraleucocytaires de microtextures décrivant un champ aléatoire markovien". Nice, 1993. http://www.theses.fr/1993NICE4707.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Par des opérateurs d'analyses d'images et de traitements du signal adaptes aux spécificités biologiques, on quantifie les textures cellulaires de tissus osseux et hématologiques avec : 1) mise en évidence par un modèle mathématique d'une mémoire cellulaire dérivant d'un champ aléatoire markovien, fonctionnant sur les variations d'homogénéité et de contraintes de statistiques du second ordre, associée aux états métaboliques caractérisant la vie cellulaire dans certaines bandes énergétiques. 2) classification morphologique et texturale des cellules suivant un concept de champ de rayons-vecteurs (crv) ou les aspects microscopiques et macroscopiques intra-cellulaires interviennent dans la détermination du contour de ces cellules. Une procédure d'indexage des rayons-vecteurs (rv), ou les algorithmes classiques de rotations et de translations sont exclus, permet une réorientation spatiale fictive des objets à comparer. La mise en correspondance des rv donne un signal de forme (sf) conduisant à une quantification du degré de ressemblance entre les objets examines. 3) Un nouveau concept quantifiant l'homogénéité des textures de zones peri-implantologiques par analyses morphologiques multi-échelles permet des évaluations prédictives de l'évolution de ces tissus lors de régénérations normales ou de leurs restructurations plus ou moins altérées
Human bone and hematologic celle textures are evaluated by the way of fittes biomedical image and signal processsing operators. In the present work, we report a set of algorithmic procedures leading to : 1) a mathematical modeling « cell memory ». That model i related to homogeneity variations associated to the metabolic states which characterize the cell life inside « energetic bands ». The second order statistical means of blood cell microscopic textures agree with those resulting form the markovian random field. 2) A morphological and textural cell classification based on the concept of « field ray-vectorrs » (CRV). Inside that CRV, the micro- and macroscopic aspects of the cell specificities are taken into account fot the contour determination. An indexing method of « Ray Vectors » (RV) leads to a « fictive » (not physically) reorientation of objects, the specific algorithms of rotations and tranlations being excluded. Matched RV give a « shape-signal » (SF) in relation to each object and leads to quantify the degree of similarity between objects. 3) A new concept found upon the morphological multi-scale analysis allowing the quantification of periimplant texture homogeneity and, the predictive evaluations of bone tissue evolutions during the regeneration r after normal or abnormal restructuration which can be more or less altered
7

Lê-Huu, Dien Khuê. "Nonconvex Alternating Direction Optimization for Graphs : Inference and Learning". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente nos contributions àl’inférence et l’apprentissage des modèles graphiquesen vision artificielle. Tout d’abord, nous proposons unenouvelle classe d’algorithmes de décomposition pour résoudrele problème d’appariement de graphes et d’hypergraphes,s’appuyant sur l’algorithme des directionsalternées (ADMM) non convexe. Ces algorithmes sontefficaces en terme de calcul et sont hautement parallélisables.En outre, ils sont également très générauxet peuvent être appliqués à des fonctionnelles d’énergiearbitraires ainsi qu’à des contraintes de correspondancearbitraires. Les expériences montrent qu’ils surpassentles méthodes de pointe existantes sur des benchmarkspopulaires. Ensuite, nous proposons une relaxationcontinue non convexe pour le problème d’estimationdu maximum a posteriori (MAP) dans les champsaléatoires de Markov (MRFs). Nous démontrons quecette relaxation est serrée, c’est-à-dire qu’elle est équivalenteau problème original. Cela nous permet d’appliquerdes méthodes d’optimisation continue pour résoudrele problème initial discret sans perte de précisionaprès arrondissement. Nous étudions deux méthodes degradient populaires, et proposons en outre une solutionplus efficace utilisant l’ADMM non convexe. Les expériencessur plusieurs problèmes réels démontrent quenotre algorithme prend l’avantage sur ceux de pointe,dans différentes configurations. Finalement, nous proposonsune méthode d’apprentissage des paramètres deces modèles graphiques avec des données d’entraînement,basée sur l’ADMM non convexe. Cette méthodeconsiste à visualiser les itérations de l’ADMM commeune séquence d’opérations différenciables, ce qui permetde calculer efficacement le gradient de la perted’apprentissage par rapport aux paramètres du modèle.L’apprentissage peut alors utiliser une descente de gradientstochastique. Nous obtenons donc un frameworkunifié pour l’inférence et l’apprentissage avec l’ADMMnon-convexe. Grâce à sa flexibilité, ce framework permetégalement d’entraîner conjointement de-bout-en-boutun modèle graphique avec un autre modèle, telqu’un réseau de neurones, combinant ainsi les avantagesdes deux. Nous présentons des expériences sur un jeude données de segmentation sémantique populaire, démontrantl’efficacité de notre méthode
This thesis presents our contributions toinference and learning of graph-based models in computervision. First, we propose a novel class of decompositionalgorithms for solving graph and hypergraphmatching based on the nonconvex alternating directionmethod of multipliers (ADMM). These algorithms arecomputationally efficient and highly parallelizable. Furthermore,they are also very general and can be appliedto arbitrary energy functions as well as arbitraryassignment constraints. Experiments show that theyoutperform existing state-of-the-art methods on popularbenchmarks. Second, we propose a nonconvex continuousrelaxation of maximum a posteriori (MAP) inferencein discrete Markov random fields (MRFs). Weshow that this relaxation is tight for arbitrary MRFs.This allows us to apply continuous optimization techniquesto solve the original discrete problem withoutloss in accuracy after rounding. We study two populargradient-based methods, and further propose a more effectivesolution using nonconvex ADMM. Experimentson different real-world problems demonstrate that theproposed ADMM compares favorably with state-of-theartalgorithms in different settings. Finally, we proposea method for learning the parameters of these graphbasedmodels from training data, based on nonconvexADMM. This method consists of viewing ADMM iterationsas a sequence of differentiable operations, whichallows efficient computation of the gradient of the trainingloss with respect to the model parameters, enablingefficient training using stochastic gradient descent. Atthe end we obtain a unified framework for inference andlearning with nonconvex ADMM. Thanks to its flexibility,this framework also allows training jointly endto-end a graph-based model with another model suchas a neural network, thus combining the strengths ofboth. We present experiments on a popular semanticsegmentation dataset, demonstrating the effectivenessof our method
8

Pereyra, Marcelo. "Statistical modeling and processing of high frequency ultrasound images : application to dermatologic oncology". Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0044/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie le traitement statistique des images d’ultrasons de haute fréquence, avec application à l’exploration in-vivo de la peau humaine et l’évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d’images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L’enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l’image ultrason de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L’approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d’ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l’estimation du paramètre B de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings “sans vraisemblance” fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre B est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d’Ising et de Potts
This thesis studies statistical image processing of high frequency ultrasound imaging, with application to in-vivo exploration of human skin and noninvasive lesion assessment. More precisely, Bayesian methods are considered in order to perform tissue segmentation in ultrasound images of skin. It is established that ultrasound signals backscattered from skin tissues converge to a complex Levy Flight random process with non-Gaussian _-stable statistics. The envelope signal follows a generalized (heavy-tailed) Rayleigh distribution. Based on these results, it is proposed to model the distribution of multiple-tissue ultrasound images as a spatially coherent finite mixture of heavy-tailed Rayleigh distributions. Spatial coherence inherent to biological tissues is modeled by a Potts Markov random field. An original Bayesian algorithm combined with a Markov chain Monte Carlo method is then proposed to jointly estimate the mixture parameters and a label-vector associating each voxel to a tissue. The proposed method is successfully applied to the segmentation of in-vivo skin tumors in high frequency 2D and 3D ultrasound images. This method is subsequently extended by including the estimation of the Potts regularization parameter B within the Markov chain Monte Carlo (MCMC) algorithm. Standard MCMC methods cannot be applied to this problem because the likelihood of B is intractable. This difficulty is addressed by using a likelihood-free Metropolis-Hastings algorithm based on the sufficient statistic of the Potts model. The resulting unsupervised segmentation method is successfully applied to tridimensional ultrasound images. Finally, the problem of computing the Cramer-Rao bound (CRB) of B is studied. The CRB depends on the derivatives of the intractable normalizing constant of the Potts model. This is resolved by proposing an original Monte Carlo algorithm, which is successfully applied to compute the CRB of the Ising and Potts models
9

Kornaropoulos, Evgenios. "Enregistrement d'Image Déformable en Groupe pour l'Estimation de Mouvement en Imagerie Médicale en 4D". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC042/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La présente thèse propose des méthodes pour l'estimation du mouvement des organes d'un patient autravers de l'imagerie tomographique. Le but est la correction du mouvement spatio-temporel sur les imagesmédicales tomographiques. En tant que paradigme expérimental, nous considérons le problème de l'estimation dumouvement dans l'imagerie IRM de diffusion, une modalité d'imagerie sensible à la diffusion des molécules d'eaudans le corps. Le but de ces travaux de thèse est l'évaluation des patients atteints de lymphome, car l'eau diffusedifféremment dans les tissus biologiques sains et dans les lésions. L'effet de la diffusion de l'eau peut être mieuxreprésenté par une image paramétrique, grâce au coefficient de diffusion apparente (image à ADC), créé sur la based'une série d'images DWI du même patient (séquence d'images 3D), acquises au moment de la numérisation. Unetelle image paramétrique a la possibilité de devenir un biomarqueur d'imagerie d’IRM et de fournir aux médecinsdes informations complémentaires concernantl'image de FDG-PET qui est la méthode d'imagerie de base pour lelymphome et qui montre la quantité de glucose métabolisée.Nos principales contributions sont au nombre de trois. Tout d'abord, nous proposons une méthode de recalaged'image déformable en groupe spécialement conçue pour la correction de mouvement dans l’IRM de diffusion, carelle est guidée par un modèle physiologique décrivant le processus de diffusion qui se déroule lors de l'acquisitionde l'image. Notre méthode détermine une image à ADC de plus grande précision en termes de représentation dugradient de la diffusion des molécules d'eau par rapport à l` image correspondante obtenue par pratique couranteou par d'autres méthodes de recalage d'image non basé sur un modèle. Deuxièmement, nous montrons qu'enimposant des contraintes spatiales sur le calcul de l'image à ADC, les tumeurs de l'image peuvent être encore mieuxcaractérisées en les classant dans les différentes catégories liées à la maladie. Troisièmement, nous montronsqu'une corrélation entre DWI et FDG-PET doit exister en examinant la corrélation entre les caractéristiquesstatistiques extraites par l'image à ADC lisse découlant de notre méthode du recalage d’image déformable et lesscores de recommandation sur la malignité des lésions, donnés par des experts basés sur une évaluation des imagesFDG-PET correspondantes du patient
This doctoral thesis develops methods to estimate patient's motion, voluntary and involuntary (organs'motion), in order to correct for motion in spatiotemporal tomographic medical images. As an experimentalparadigm we consider the problem of motion estimation in Diffusion-Weighted Magnetic Resonance Imaging (DWI),an imaging modality sensitive to the diffusion of water molecules in the body. DWI is used for the evaluation oflymphoma patients, since water diffuses differently in healthy tissues and in lesions. The effect of water diffusioncan be better depicted through a parametric map, the so-called apparent diffusion coefficient (ADC map), createdbased on a series of DW images of the same patient (3D image sequence), acquired in time during scanning. Such aparametric map has the potentiality to become an imaging biomarker in DWI and provide physicians withcomplementary information to current state-of-the-art FDG-PET imaging reflecting quantitatively glycosemetaboslism.Our contributions are three fold. First, we propose a group-wise deformable image registration methodespecially designed for motion correction in DWI, as it is guided by a physiological model describing the diffusionprocess taking place during image acquisition. Our method derives an ADC map of higher accuracy in terms ofdepicting the gradient of the water molecules' diffusion in comparison to the corresponding map derived bycommon practice or by other model-free group-wise image registration methods. Second, we show that by imposingspatial constraints on the computation of the ADC map, the tumours in the image can be even better characterized interms of classifying them into the different types of the disease. Third, we show that a correlation between DWI andFDG-PET should exist by examining the correlation between statistical features extracted by the smooth ADC mapderived by our deformable registration method, and recommendation scores on the malignancy of the lesions, givenby experts based on an evaluation of the corresponding FDG-PET images of the patient
10

Le, bars Batiste. "Event detection and structure inference for graph vectors". Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde différents problèmes autour de l'analyse et la modélisation de signaux sur graphes, autrement dit des données vectorielles observées sur des graphes. Nous nous intéressons en particulier à deux tâches spécifique. La première est le problème de détection d'événements, c'est-à-dire la détection d'anomalies ou de ruptures, dans un ensemble de vecteurs sur graphes. La seconde tâche consiste en l'inférence de la structure de graphe sous-jacente aux vecteurs contenus dans un ensemble de données. Dans un premier temps notre travail est orienté vers l'application. Nous proposons une méthode pour détecter des pannes ou des défaillances d'antenne dans un réseau de télécommunication.La méthodologie proposée est conçue pour être efficace pour des réseaux de communication au sens large et tient implicitement compte de la structure sous-jacente des données. Dans un deuxième temps, une nouvelle méthode d'inférence de graphes dans le cadre du Graph Signal Processing est étudiée. Dans ce problème, des notions de régularité local et global, par rapport au graphe sous-jacent, sont imposées aux vecteurs. Enfin, nous proposons de combiner la tâche d'apprentissage des graphes avec le problème de détection de ruptures. Cette fois, un cadre probabiliste est considéré pour modéliser les vecteurs, supposés ainsi être distribués selon un certain champ aléatoire de Markov. Dans notre modélisation, le graphe sous-jacent aux données peut changer dans le temps et un point de rupture est détecté chaque fois qu'il change de manière significative
This thesis addresses different problems around the analysis and the modeling of graph signals i.e. vector data that are observed over graphs. In particular, we are interested in two tasks. The rst one is the problem of event detection, i.e. anomaly or changepoint detection, in a set of graph vectors. The second task concerns the inference of the graph structure underlying the observed graph vectors contained in a data set. At first, our work takes an application oriented aspect in which we propose a method for detecting antenna failures or breakdowns in a telecommunication network. The proposed approach is designed to be eective for communication networks in a broad sense and it implicitly takes into account the underlying graph structure of the data. In a second time, a new method for graph structure inference within the framework of Graph Signal Processing is investigated. In this problem, notions of both local and globalsmoothness, with respect to the underlying graph, are imposed to the vectors.Finally, we propose to combine the graph learning task with the change-point detection problem. This time, a probabilistic framework is considered to model the vectors, assumed to be distributed from a specifc Markov Random Field. In the considered modeling, the graph underlying the data is allowed to evolve in time and a change-point is actually detected whenever this graph changes significantly
11

El-Mawass, Nour. "Protection Anti-Abus de Réseaux Sociaux Numériques par Apprentissage Statistique". Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR094.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, la popularité incomparable des réseaux sociaux numériques s’est traduite par l’omniprésence des spammeurs sur ces plateformes. Cette présence a commencé par se manifester sous la forme de messages de publicité et d’arnaques traditionnels simples à identifier. Pourtant, elle s’est métamorphosée durant les dernières années, et couvre dorénavant de larges tentatives de manipulation qui sont assez importantes et beaucoup plus préoccupantes. Cet abus ciblé et largement automatisé des réseaux sociaux numériques réduit la crédibilité et l’utilitédes informations diffusées sur ces plateformes. Le problème de détection du spam social a été traditionnellement modélisé comme un problème de classification supervisée où l’objectif est de classer les comptes sociaux individuellement. Ce choix est problématique pour deux raisons. Tout d’abord, la nature dynamique du spam social rend les performances des systèmes supervisés difficiles à maintenir. En outre, la modélisation basée sur les caractéristiques (features) des comptes sociaux individuels ne prend pas en compte le contexte collusoire dans lequel les attaques sur les réseaux sociaux sont menées. Pour maximiser leur efficacité et la visibilité de leur contenu, les spammeurs actent d’une manière qu’on peut décrire comme “synchronisée”. Ainsi, même lorsqueles spammeurs changent de caractéristiques, ils continuent à agir de manière collusoire, créant des liens entre les comptes complices. Ceci constitue un signal non supervisé qui est relativement facile à maintenir et difficile à contourner. Il est donc avantageux de trouver une mesure de similarité adaptée qui soit capable de capturer ce comportement collusoire. Dans ce travail, nous proposons d’exprimer le problème de détection de spam social en termes probabilistes en utilisant le cadre des modèles graphiques non dirigés. Au lieu du paradigme de détection individuelle qui est couramment utilisé dans la littérature, nous cherchons à modéliser la tâche de classification comme une tâche d’inférence sur la probabilité jointe d’un graphe de variables. Dans ce contexte, les comptes sont représentés comme des variables aléatoires et la dépendance entre ces variables est représentée par un graphe. Cette expression probabiliste permet de modéliser l’incertitude inhérente aux systèmes de classification. Le graphe permet aussi d’exploiter la dépendance qui découle de la similitude induite par le comportement collusoire des spammeurs. Nous proposons deux modèles graphiques: le Champs Aléatoire de Markov où l’inférence est effctuée par l’algorithme de Propagation des Convictions à Boucle, et le Champs Aléatoire Conditionnel, où on choisit d’utiliser l’algorithme du Tree Reweighted Message Passing pour l’inférence et une fonction de perte qui minimise le risque empirique. Les deux modèles, évalués sur Twitter, montrent une augmentation des performances de classification par rapport aux classifieurs supervisés de la littérature. Le Champ Aléatoire Conditionnel offre de meilleures performances de classification par rapport au Champs Aléatoire de Markov. Il est aussi plus robuste face aux changements dans la distribution des caractéristiques des spammeurs
Over the last decade, the growing popularity of Online Social Networks has attracted a pervasive presence of social spammers. While this presence has started with spam advertising and common scams, the recent years have seen this escalate to the far more concerning mass manipulation attempts. This targeted and largely automated abuse of social platforms is risking the credibility and usefulness of the information disseminated on these platforms. The social spam detection problem has been traditionally modeled as a supervised problem where the goal is to classify individual social accounts. This common choice is problematic for two reasons. First, the dynamic and adversarial nature of social spam makes the performance achieved by features-based supervised systems hard to maintain. Second, features-based modeling of individual social accounts discards the collusive context in which social attacks are increasingly undertaken. Acting synchronously allows spammers to gain greater exposure and efficiently disseminate their content. Thus, even when spammers change their characteristics, they continue to act collusively, inevitably creating links between collusive spammingaccounts. This constitutes an unsupervised signal that is relatively easy to maintain and hard to evade. It is therefore beneficial to find a suitable similarity measure that captures this collusive behavior. Accordingly, we propose in this work to cast the social spam detection problem in probabilistic terms using the undirected graphical models framework. Instead of the individual detection paradigm that is commonly used in the literature, we aim to model the classi_cation task as one of joint inference. In this context, accounts are represented as random variables and the dependency between these variables is encoded in a graphical structure. This probabilistic setting allows to model theuncertainty that is inherent to classification systems while simultaneously leveraging the dependency that _ows from the similarity induced by the spammers collusive behavior. We propose two graphical models: the Markov Random Field with inference performed via Loopy Belief Propagation, and the Conditional Random Field with a setting that is more adapted to the classification problem, namely by adopting the Tree Reweighted message passing algorithm for inference and a loss that minimizes theempirical risk. Both models, evaluated on Twitter, demonstrate an increase in classification performance compared to state-of-the-art supervised classifiers. Compared to the Markov Random Field, the proposed Conditional Random Field framework offers a better classification performance and a higher robustness to changes in spammers input distribution
12

Forbes, Florence. "Modèles markoviens de ressources partagées". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004991.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Selon les domaines d'applications, différentes façons de modéliser le partage de ressources ont été envisagées. Un des premiers modèles apparus est issu du "Dining Philosophers Problem" de Dijkstra, généralisé par la suite par Chandy et Misra à travers le "Drinking Philosophers Problem". Nous nous intéressons à des versions markoviennes de ces situations, dans lesquelles les durées pour la prise et l'utilisation des ressources sont aléatoires. L'évaluation puis l'optimisation des performances des systèmes de ressources partagées nous conduit à étudier l'équilibre de ces modèles. Cette étude s'inscrit dans le contexte des propriétés de Markov des champs aléatoires sur les graphes dont nous présentons quelques résultats généraux. Nous utilisons également le formalisme des systèmes de particules. Nous introduisons une nouvelle classe de modèles markoviens de ressources partagées pour lesquels nous généralisons des outils classiques. Nous présentons des résultats de réversibilité et envisageons des techniques de comparaison stochastique. Pour des systèmes finis, nous donnons quelques calculs explicites de mesures d'équilibre. Des systèmes qui augmentent en taille et en complexité peuvent être approchés par des systèmes infinis. Pour des systèmes sur des graphes infinis construits à partir d'un arbre, nous mettons en évidence des phénomenes de transition de phase.
13

Thai, Anh-Thi Marie Noémie. "Processus de Fleming-Viot, distributions quasi-stationnaires et marches aléatoires en interaction de type champ moyen". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1124/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse nous étudions le comportement asymptotique de systèmes de particules en interaction de type champ moyen en espace discret, systèmes pour lesquels l'interaction a lieu par l'intermédiaire de la mesure empirique. Dans la première partie de ce mémoire, nous nous intéressons aux systèmes de particules de type Fleming-Viot: les particules se déplacent indépendamment suivant une dynamique markovienne jusqu'au moment où l'une d'entre elles touche un état absorbant. A cet instant, la particule absorbée choisit uniformément une autre particule et saute sur sa position. L'ergodicité du processus est établie dans le cadre de marches aléatoires sur N avec dérive vers l'origine et pour une dynamique proche de celle du graphe complet. Pour ce dernier, nous obtenons une estimation quantitative de la convergence en temps long à l'aide de la courbure de Wasserstein. Nous montrons de plus la convergence de la distribution empirique stationnaire vers une unique distribution quasi-stationnaire, quand le nombre de particules tend vers l'infini. Dans la deuxième partie de ce mémoire, nous nous intéressons au comportement en temps long et quand le nombre de particules devient grand, d'un système de processus de naissance et mort pour lequel les particules interagissent à chaque instant par le biais de la moyenne de leurs positions. Nous établissons l'existence d'une limite macroscopique, solution d'une équation non linéaire ainsi que le phénomène de propagation du chaos avec une estimation quantitative et uniforme en temps
In this thesis we study the asymptotic behavior of particle systems in mean field type interaction in discrete space, where the system acts over one fixed particle through the empirical measure of the system. In the first part of this thesis, we are interested in Fleming-Viot particle systems: the particles move independently of each other until one of them reaches an absorbing state. At this time, the absorbed particle jumps instantly to the position of one of the other particles, chosen uniformly at random. The ergodicity of the process is established in the case of random walks on N with a dirft towards the origin and on complete graph dynamics. For the latter, we obtain a quantitative estimate of the convergence described by the Wasserstein curvature. Moreover, under the invariant measure, we show the convergence of the empirical measure towards the unique quasi-stationary distribution as the size of the system tends to infinity. In the second part of this thesis, we study the behavior in large time and when the number of particles is large of a system of birth and death processes where at each time a particle interacts with the others through the mean of theirs positions. We establish the existence of a macroscopic limit, solution of a non linear equation and the propagation of chaos phenomenon with quantitative and uniform in time estimate
14

Pereyra, Marcelo. "Modélisation et traitement statistiques d'images d'ultrasons de haute fréquence. Application à l'oncologie dermatologique". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2012. http://tel.archives-ouvertes.fr/tel-00787930.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie le traitement statistique des images d'ultrasons de haute fréquence, avec application à l'exploration in-vivo de la peau humaine et l'évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d'images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L'enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l'image d'ultrasons de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L'approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d'ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l'estimation du paramètre de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings ''sans vraisemblance'' fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre de régularisation du champ de Potts est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d'Ising et de Potts.
15

Martin, Victorin. "Modélisation probabiliste et inférence par l'algorithme Belief Propagation". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://tel.archives-ouvertes.fr/tel-00867693.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques.
16

Dang, Van Mô. "Classification de donnees spatiales : modeles probabilistes et criteres de partitionnement". Compiègne, 1998. http://www.theses.fr/1998COMP1173.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La problématique de la classification de données spatiales se pose par exemple lorsqu'on segmente une image en régions homogènes ou lorsqu'on cartographie des données multidimensionnelles localisées telles que des relevés physico-chimiques du sol. Dans ce travail, les méthodes proposées s'appuient sur des distributions de probabilité afin de modéliser les mécanismes engendrant la partition non observée et les observations. S'il s'agit d'effectuer les regroupements en se basant uniquement sur les valeurs observées, on rappelle que les modèles de mélange, la vraisemblance classifiante et l'algorithme EM procurent des solutions flexibles et relativement simples à mettre en œuvre. Afin d'intégrer en outre une hypothèse d'homogénéité spatiale de la partition, on se propose de conduire des raisonnements similaires dans le cadre des modèles utilisant un champ de Markov caché. D'une part, on démontre qu'en appliquant l'algorithme EM au cas des champs de potts cachés avec une approximation de champ moyen, on effectue les mêmes calculs que l'optimisation alternée d'une vraisemblance classifiante floue. Ce constat permet d'améliorer sur certains points une méthode de classification spatiale floue itérative récemment proposée. Sur des données simulées et réelles, la méthode obtenue fournit des résultats comparables aux techniques utilisant des simulations de Monte-Carlo pour un cout algorithmique moindre. D'autre part, on adapte l'approche précédente à des types particuliers de données spatiales. Pour un problème d'écologie numérique, on construit ainsi une méthode visant à classifier des indicateurs de présence/absence localisés. On propose selon une démarche analogue un algorithme de classification peu sensible aux valeurs atypiques. Enfin, pour traiter des données spatiales incomplètes, on propose d'optimiser une vraisemblance classifiante dont le modèle statistique sous-jacent intègre la notion de valeurs manquantes.
17

Nguyen, Chu Duc. "Localization and quality enhancement for automatic recognition of vehicle license plates in video sequences". Thesis, Ecully, Ecole centrale de Lyon, 2011. http://www.theses.fr/2011ECDL0018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La lecture automatique de plaques d’immatriculation de véhicule est considérée comme une approche de surveillance de masse. Elle permet, grâce à la détection /localisation ainsi que la reconnaissance optique, d’identifier un véhicule dans les images ou les séquences d’images. De nombreuses applications comme le suivi du trafic, la détection de véhicules volés, le télépéage ou la gestion d’entrée / sortie des parkings utilise ce procédé. Or malgré d’important progrès enregistré depuis l’apparition des premiers prototypes en 1979 accompagné d’un taux de reconnaissance parfois impressionnant, notamment grâce aux avancés en recherche scientifique et en technologie des capteurs, les contraintes imposés pour le bon fonctionnement de tels systèmes en limitent les portées. En effet, l’utilisation optimale des techniques de localisation et de reconnaissance de plaque d’immatriculation dans les scénarii opérationnels nécessite des conditions d’éclairage contrôlées ainsi qu’une limitation dans de la pose, de vitesse ou tout simplement de type de plaque. La lecture automatique de plaques d’immatriculation reste alors un problème de recherche ouvert. La contribution majeure de cette thèse est triple. D’abord une nouvelle approche robuste de localisation de plaque d’immatriculation dans des images ou des séquences d’images est proposée. Puis, l’amélioration de la qualité des plaques localisées est traitée par une adaptation de technique de super-résolution. Finalement, un modèle unifié de localisation et de super-résolution est proposé permettant de diminuer la complexité temporelle des deux approches combinées
Automatic reading of vehicle license plates is considered an approach to mass surveillance. It allows, through the detection / localization and optical recognition to identify a vehicle in the images or video sequences. Many applications such as traffic monitoring, detection of stolen vehicles, the toll or the management of entrance/ exit parking uses this method. Yet in spite of important progress made since the appearance of the first prototype sin 1979, with a recognition rate sometimes impressive thanks to advanced science and sensor technology, the constraints imposed for the operation of such systems limit laid. Indeed, the optimal use of techniques for localizing and recognizing license plates in operational scenarios requiring controlled lighting conditions and a limitation of the pose, velocity, or simply type plate. Automatic reading of vehicle license plates then remains an open research problem. The major contribution of this thesis is threefold. First, a new approach to robust license plate localization in images or image sequences is proposed. Then, improving the quality of the plates is treated with a localized adaptation of super-resolution technique. Finally, a unified model of location and super-resolution is proposed to reduce the time complexity of both approaches combined
18

Urs, Radu Dragos. "Non-parametric synthesis of volumetric textures from a 2D sample". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821886.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This thesis deals with the synthesis of anisotropic volumetric textures from a single 2D observation. We present variants of non parametric and multi-scale algorithms. Their main specificity lies in the fact that the 3D synthesis process relies on the sampling of a single 2D input sample, ensuring consistency in the different views of the 3D texture. Two types of approaches are investigated, both multi-scale and based on markovian hypothesis. The first category brings together a set of algorithms based on fixed-neighbourhood search, adapted from existing algorithms of texture synthesis from multiple 2D sources. The principle is that, starting from a random initialisation, the 3D texture is modified, voxel by voxel, in a deterministic manner, ensuring that the grey level local configurations on orthogonal slices containing the voxel are similar to configurations of the input image. The second category points out an original probabilistic approach which aims at reproducing in the textured volume the interactions between pixels learned in the input image. The learning is done by non-parametric Parzen windowing. Optimization is handled voxel by voxel by a deterministic ICM type algorithm. Several variants are proposed regarding the strategies used for the simultaneous handling of the orthogonal slices containing the voxel. These synthesis methods are first implemented on a set of structured textures of varied regularity and anisotropy. A comparative study and a sensitivity analysis are carried out, highlighting the strengths and the weaknesses of the different algorithms. Finally, they are applied to the simulation of volumetric textures of carbon composite materials, on nanometric scale snapshots obtained by transmission electron microscopy. The proposed experimental benchmark allows to evaluate quantitatively and objectively the performances of the different methods.
19

Tarabalka, Yuliya. "Approches spectro-spatiales pour la classification d'images hyperspectrales". Phd thesis, Grenoble INPG, 2010. http://www.theses.fr/2010INPG0049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons et développons des nouvelles méthodes et algorithmes spectro-spatiaux pour la classification des données hyperspectrales. Dans un premier temps, l'intégration de la technique des Machines a Vecteurs de Support dans le cadre des Champs Aléatoires de Markov est étudiée. Dans un second temps, nous proposons des méthodes de classification qui utilisent des voisinages spatiaux adaptatifs dérivés des résultats de segmentation. L'extension de différentes techniques de segmentation au cadre hyperspectral a été étudiée. Afin de réduire une sur-segmentation de l'image, nous avons également proposé des techniques basées sur l'utilisation de marqueurs afin d'identifier les structures spatiales pertinentes. Notre proposition consiste à analyser les résultats d'une classification afin de sélectionner comme marqueurs les pixels les plus fiables. Les nouvelles méthodes améliorent les résultats de classification par rapport aux méthodes proposées précédemment
Ln this thesis, we propose and develop novel spectral-spatial methods and algorithms for classification of hyperspectral data. First, the integration of the Support Vector Machines technique within a Markov Random Fields framework is investigated. Ln. A second step, we propose classification methods using adaptive spatial neighborhoods derived from region segmentation results. Different segmentation techniques are investigated and extended to the case of hyperspectral images. We also propose approaches to reduce oversegmentation in an image, which is achieved by automatically marking the spatial structures before performing a marker-controlled segmentation. Our proposai is to analyze probabilistic classification results for selecting the most reliably classified pixels as markers of spatial regions. Then, different approaches for marker-controlled region growing are developed. The new techniques improve classification results when compared to previously proposed methods
20

Tarabalka, Yuliya. "Approches spectro-spatiales pour la classification d'images hyperspectrales". Phd thesis, Grenoble INPG, 2010. http://tel.archives-ouvertes.fr/tel-00557734.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'imagerie hyperspectrale enregistre un spectre detaillé de la lumière reçue dans chaque position spatiale de l'image. Comme des matières différentes manifestent des signatures spectrales différentes, l'imagerie hyperspectrale est une technologie bien adaptée pour la classification précise des images, ce qui est une tâche importante dans beaucoup de domaines appliqués. Cependant, la grande dimension des données complique l'analyse des images. La plupart des techniques de classification proposées précédemment traitent chaque pixel indépendamment, sans considérer l'information sur les structures spatiales. Cependant, la recherche récente en traitement d'images a souligné l'importance de l'incorporation du contexte spatial dans les classifieurs. Dans cette thèse, nous proposons et développons des nouvelles méthodes et algorithmes spectro-spatiaux pour la classification précise des données hyperspectrales. D'abord, l'intégration de la technique des Machines à Vecteurs de Support (SVM) dans le cadre des Champs Aléatoires de Markov (MRFs) pour la classification contextuelle est étudiée. Les SVM et les modèles markoviens sont les deux outils efficaces pour la classification des données de grande dimension et pour l'analyse contextuelle d'images, respectivement. Dans un second temps, nous avons proposé des méthodes de classification qui utilisent des voisinages spatiaux adaptatifs dérivés des résultats d'une segmentation. Nous avons étudié différentes techniques de segmentation et nous les avons adaptées pour le traitement des images hyperspectrales. Ensuite, nous avons développé des approches pour combiner les régions spatiales avec l'information spectrale dans un classifieur. Nous avons aussi étudié des techniques pour réduire la sur-segmentation en utilisant des marqueurs des structures spatiales d'intérêt afin d'effectuer la segmentation par marqueurs. Notre proposition est d'analyser les résultats de la classification probabiliste afin de sélectionner les pixels les plus fiablement classés comme des marqueurs des régions spatiales. Nous avons proposé plusieurs méthods pour la sélection des marqueurs, qui utilisent soit des classifieurs individuels, soit un ensemble de classifieurs. Ensuite, nous avons développé des techniques pour la segmentation par croissance de régions issues des marqueurs, en utilisant soit la ligne de partage d'eaux, soit une forêt couvrante de poids minimal, qui ont pour résultat les cartes de segmentation et de classification contextuelle. Finalement, nous considerons les possibilités du calcul parallèle à haute performance sur les processeurs d'un usage commode afin de réduire la charge du calcul. Les nouvelles méthodes développées dans cette thèse améliorent les résultats de classification par rapport aux méthodes proposées précédemment, et ainsi montrent un grand potentiel pour les différents scénarios de l'analyse d'image.

Vai alla bibliografia