Tesi sul tema "Segmentation non supervisée d'images"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Segmentation non supervisée d'images.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Segmentation non supervisée d'images".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Fernandes, Clément. "Chaînes de Markov triplets et segmentation non supervisée d'images". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les chaînes de Markov cachées (HMC) sont très utilisées pour la segmentation bayésienne non supervisée de données discrètes. Elles sont particulièrement robustes et, malgré leur simplicité, elles sont suffisamment efficaces dans de nombreuses situations. En particulier pour la segmentation d'image, malgré leur nature unidimensionnelle, elles sont capables, grâce à une transformation des images bidimensionnelles en séquences monodimensionnelles avec le balayage de Peano (PS), de produire des résultats satisfaisants. Cependant, dans certains cas, on peut préférer des modèles plus complexes tels que les champs de Markov cachées (HMF) malgré leur plus grande complexité en temps, pour leurs meilleurs résultats. De plus, les modèles de Markov cachés (les chaînes aussi bien que les champs) ont été étendus aux modèles de Markov couples et triplets, qui peuvent être intéressant dans des cas plus complexes. Par exemple, lorsque le temps de séjour n'est pas géométrique, les chaînes de semi-Markov cachées (HSMC) ont tendance à être plus performantes que les HMC, and on peut dire de même pour les chaînes de Markov évidentielles cachées (HEMC) dans le cas de données non-stationnaires. Dans cette thèse, nous proposons dans un premier lieu une nouvelle chaîne de Markov triplet (TMC), qui étend simultanément les HSMC et les HEMC. Basée sur les chaînes de Markov triplets cachées (HTMC), la nouvelle chaîne de semi-Markov évidentielle cachée (HESMC) peut être utilisée de manière non supervisée, les paramètres étant estimés avec l'algorithme Expectation-Maximization (EM). Nous validons l'intérêt d'un tel modèle grâce à des expériences sur des données synthétiques. Nous nous intéressons ensuite au problème de l'unidimensionnalité des HMC avec PS dans le cadre de la segmentation d'image, en construisant le balayage de Peano contextuel (CPS). Il consiste à associer à chaque indexe dans le HMC obtenu à partir du PS, deux observations sur les pixels qui sont voisins du pixel en question dans l'image considérée, mais qui ne sont pas voisins dans la HMC. On obtient donc trois observations pour chaque point du balayage de Peano, ce qui induit une nouvelle chaîne de Markov conditionnelle (CMC) avec une structure plus complexe, mais dont la loi a posteriori est toujours markovienne. Ainsi, nous pouvons appliquer la méthode classique d'estimation des paramètres : l'algorithme Stochastic Expectation-Maximization (SEM), ainsi qu'étudier la segmentation non supervisée obtenue avec l'estimateur du mode des marginales a posteriori (MPM). Les segmentations supervisées et non supervisées par MPM, basées sur la CMC avec CPS, sont comparés aux HMC avec PS et aux HMF à travers des expériences sur des images synthétiques. Elles améliorent de manière significative les premières, et peuvent même être compétitives avec ces derniers. Finalement, nous étendons les CMC-CPS aux chaînes de Markov couples conditionnelles (CPMC) et à deux chaînes de Markov triplets particulières : les chaînes de Markov évidentielles conditionnelles (CEMC) et les chaînes de semi-Markov conditionnelles (CSMC). Pour chacune de ces extensions, nous montrons qu'elles peuvent améliorer de manière notable leur contrepartie non conditionnelle, ainsi que les CMC-CPS, et peuvent même être compétitives avec les HMF. Par ailleurs, elles permettent de mieux utiliser la généralité du triplet markovien dans le cadre de la segmentation d'image, en contournant les problèmes de temps de calcul considérables qui apparaissent lorsque l'on passe des champs de Markov cachés aux triplets
Hidden Markov chains (HMC) are widely used in unsupervised Bayesian hidden discrete data restoration. They are very robust and, in spite of their simplicity, they are sufficiently efficient in many situations. In particular for image segmentation, despite their mono-dimensional nature, they are able, through a transformation of the bi-dimensional images into mono-dimensional sequences with Peano scan (PS), to give satisfying results. However, sometimes, more complex models such as hidden Markov fields (HMF) may be preferred in spite of their increased time complexity, for their better results. Moreover, hidden Markov models (the chains as well as the fields) have been extended to pairwise and triplet Markov models, which can be of interest in more complex situations. For example, when sojourn time in hidden states is not geometrical, hidden semi-Markov (HSMC) chains tend to perform better than HMC, and such is also the case for hidden evidential Markov chains (HEMC) when data are non-stationary. In this thesis, we first propose a new triplet Markov chain (TMC), which simultaneously extends HSMC and HEMC. Based on hidden triplet Markov chains (HTMC), the new hidden evidential semi-Markov chain (HESMC) model can be used in unsupervised framework, parameters being estimated with Expectation-Maximization (EM) algorithm. We validate its interest through some experiments on synthetic data. Then we address the problem of mono-dimensionality of the HMC with PS model in image segmentation by introducing the “contextual” Peano scan (CPS). It consists in associating to each index in the HMC obtained from PS, two observations on pixels which are neighbors of the pixel considered in the image, but are not its neighbors in the HMC. This gives three observations on each point of the Peano scan, which leads to a new conditional Markov chain (CMC) with a more complex structure, but whose posterior law is still Markovian. Therefore, we can apply the usual parameter estimation method: Stochastic Expectation-Maximization (SEM), as well as study unsupervised segmentation Marginal Posterior Mode (MPM) so obtained. The CMC with CPS based supervised and unsupervised MPM are compared to the classic scan based HMC-PS and the HMF through experiments on artificial images. They improve notably the former, and can even compete with the latter. Finally, we extend the CMC-CPS to Pairwise Conditional Markov (CPMC) chains and two particular triplet conditional Markov chain: evidential conditional Markov chains (CEMC) and conditional semi-Markov chains (CSMC). For each of these extensions, we show through experiments on artificial images that these models can improve notably their non conditional counterpart, as well as the CMC with CPS, and can even compete with the HMF. Beside they allow the generality of markovian triplets to better play its part in image segmentation, while avoiding the substantial time complexity of triplet Markov fields
2

Benboudjema, Dalila. "Champs de Markov triplets et segmentation bayésienne non supervisée d'images". Evry, Institut national des télécommunications, 2005. http://www.theses.fr/2005TELE0009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La segmentation non supervisée d’images est parmi les problèmes clé en traitement d’images. Parmi les différents modèles et approches développées, une partie des méthodes statistiques, couramment utilisées, sont fondées sur le modèle par champs de Markov Cachés (CMC). Ce succès est principalement dû à l’aptitude du modèle de prendre en compte des dépendances spatiales des variables aléatoires, même lorsqu’elles sont en très grand nombre, pouvant dépasser le million. Dans un tel modèle le champ caché X est supposé markovien et doit être estimé à partir du champ observé Y. Un tel traitement est possible du fait de la markovianité de X conditionnellement à Y. Ce modèle a été ensuite généralisé aux champs de Markov couples (CMCouples), où l’on suppose directement la markovianité du couple (X,Y ), qui offrent les mêmes possibilités de traitements que les CMC et permettent de mieux modéliser le bruit ce qui permet, en particulier, de mieux prendre en compte l’existence des textures. Par la suite, les CMCouples ont été généralisés aux champs de Markov triplet (CMT), où la loi du couple (X,Y ) est une loi marginale d’un champ de Markov triplet T = (X ,U,Y ) , avec un champ auxiliaire U. L’objet de cette thèse est d’étudier les CMT. Deux variantes originales sont présentées : les champs de Markov évidentiels (CME), permettant la modélisation des incertitudes sur les paramètres ; et les champs de Markov Triplets Adaptés (CMTA), permettant la modélisation des différentes stationnarités de l’image cachée. Pour une segmentation non supervisée, deux méthodes originales d’estimation des paramètres sont proposées. La première est fondée sur le principe du gradient stochastique, et la seconde est fondée sur le principe de l’estimation conditionnelle itérative (ECI) et les moindres carrés. Cette dernière est ensuite généralisée aux cas des images non stationnaires avec du bruit non Gaussien corrélé, et à marginales quelconques. Elle permet de rechercher la forme même des différentes lois marginales en utilisant le système de Pearson, ainsi que d’estimer tous les paramètres du modèle. L’intérêt des différentes méthodes non supervisées obtenues est attesté par des simulations informatiques ainsi que par les premiers traitements des images réelles
Image segmentation is a fundamental and yet difficult task in machine vision. Several models and approaches have been proposed, and the ones which have probably received considerable attention are hidden Markov fields (HMF) models. In such model the hidden field X which is assumed Markovian, must be estimated from the observed –or noisy- field Y. Such processing is possible because the distribution X conditional on the observed process Y remains markovian. This model has been generalized to the Pairwise Markov field (PMF) which offer similar processing and superior modelling capabilities. In this model we assume directly the markovianity of the couple (X,Y ). Afterwards, triplet Markov fields (TMF) which are the generalization of the PMF, have been proposed. In such model the distribution of the couple (X ,Y ) is the marginal distribution of a Markov field T = (X ,U,Y ) , where U is latent process. The aim of this thesis is to study the TMF models. Two original models are presented: the Evidential Markov field (EMF) allowing to model the evidential aspects of the prior information and the adapted triplet Markov field (ATMF), allowing to model the simultaneous presence of different stationarities in the class image. For the unsupervised processing, two original approaches of estimation the model’s parameters have been proposed. The first one is based on the stochastic gradient and the second one is based on the iterative conditional estimation (ICE) and the least square method, as well. The latter, have then been generalized to the non stationary images with non Gaussian correlated noise, which uses the Pearson system to find the natures of margins of the noise, which can vary with the class. Experiments indicate that the new models and related processing algorithms can improve the results obtained with the classical ones
3

Fontaine, Michaël. "Segmentation non supervisée d'images couleur par analyse de la connexité des pixels". Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-305-306.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de la segmentation d'images couleur en régions, nous proposons une méthode originale qui considère que les régions sont définies comme des ensembles de pixels connexes appartenant à une même classe de pixels. Notre approche considère au même titre les propriétés de connexité et les propriétés colorimétriques des pixels afin de construire des classes qui peuvent être non équiprobables. Nous définissons le degré de connexité couleur d'un ensemble de pixels qui est une mesure de la connexité d'un ensemble de pixels dont les couleurs appartiennent à un intervalle de couleurs. Nous supposons que les pixels de chaque région de l'image peuvent être regroupés en une classe de pixels et qu'une classe est un ensemble de pixels dont le degré de connexité couleur présente une valeur remarquablement élevée. Toute la difficulté consiste à identifier ces ensembles. Pour cela, nous définissons une structure de donnée originale, la pyramide des degrés de connexité couleur PDCC, qui recense de manière organisée et hiérarchique les degrés de connexité couleur de tous les ensembles de pixels possibles que peut contenir une image et dont les couleurs appartiennent à des intervalles de couleurs parfaitement définis. Pour des raisons d'implantation, nous ne pouvons construire cette pyramide qu'en tenant compte de deux composantes trichromatiques parmi les trois disponibles. Nous décomposons alors l'image originale en trois images bichromatiques associées respectivement aux couples de composantes (R,G), (G,B) et (B,R) et nous construisons la PDCC pour chacune de ces images. Une méthode d'analyse de chaque PDCC est proposée afin de construire les noyaux des classes présentes dans chaque image bichromatique.
4

Peng, Anrong. "Segmentation statistique non supervisée d'images et de détection de contours par filtrage". Compiègne, 1992. http://www.theses.fr/1992COMPD512.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à deux catégories de méthodes de la segmentation d'images: la segmentation statistique non supervisée et la détection de contours par filtrage. Les contributions de ce travail reposent sur les études des deux familles de méthodes en soi et sur leur mise en parallèle. Dans la première partie, nous abordons la segmentation Bayesienne non supervisée. Des algorithmes d'estimation préalable à la segmentation contextuelle, tels que EM, ICE, SEM, sont étudiés. Puis ces estimateurs valables dans les champs stationnaires sont adaptés aux champs non stationnaires. En levant l'hypothèse de stationnarité pour le champ de classes, les segmentations contextuelles donnent des résultats nettement meilleurs dans certains cas. Après une application de diverses combinaisons des estimateurs et des segmentations à des images différemment bruitées, nous menons une comparaison des performances des estimateurs suivant des caractéristiques du bruit. Une étude de la robustesse de la segmentation contextuelle est effectuée, ce qui est utile pour le choix d'un estimateur, ainsi que pour la définition d'un compromis entre la précision de l'estimation et le temps de calcul. La deuxième partie est consacrée à la détection de contours par filtrage. Une définition des contours utilisant l'ordre de discontinuité est d'abord proposée. La méthodologie de la détection de contours d'ordre 0 (contour échelon) est généralisée aux contours de discontinuité d'ordre quelconque. Le problème de la détection de contours est ainsi réduit à la recherche d'un filtre de lissage optimal dont la forme joue un rôle important. L'accent est donc mis sur l'étude des formes de filtres de lissage existants. Un exemple de cette généralisation, la détection du contour rampe, est appliquée aux images simulées et images réelles. La troisième partie est consacrée à la mise en parallèle des deux familles de méthodes. Après une étude sur leurs profils différents et points communs du point de vue théorique, l'objectif principal est la comparaison de la qualité, tant visuelle que selon des critères objectifs, des contours obtenus par deux familles de méthodes. Les comparaisons sont effectuées également au sein d'une même famille. Des algorithmes d'estimation, ICE stationnaire et ICE non stationnaire, combinés avec les méthodes de segmentation, telles que aveugle et contextuelle, sont choisis comme représentants de la première famille. Le filtre de Shen est choisi comme représentant de la deuxième famille. Cette étude met en lumière les différences de comportement des deux familles de méthodes, et peut ainsi servir à la décision quant au choix de la méthode la plus appropriée en fonction de propriétés objectives des images.
5

El, Asmar Saadallah. "Contributions à la segmentation non supervisée d'images hyperspectrales : trois approches algébriques et géométriques". Thesis, La Rochelle, 2016. http://www.theses.fr/2016LAROS023/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis environ une dizaine d’années, les images hyperspectrales produites par les systèmes de télédétection, “Remote Sensing”, ont permis d’obtenir des informations très fiables quant aux caractéristiques spectrales de matériaux présents dans une scène donnée. Nous nous intéressons dans ce travail au problème de la segmentation non supervisée d’images hyperspectrales suivant trois approches bien distinctes. La première, de type Graph Embedding, nécessite deux étapes : une première étape d’appariement des pixels de patchs de l’image initiale grâce à une mesure de similarité spectrale entre pixels et une seconde étape d’appariement d’objets issus des segmentations locales grâce à une mesure de similarité entre objets. La deuxième, de type Spectral Hashing ou Semantic Hashing, repose sur un codage binaire des variations des profils spectraux. On procède à des segmentations par clustering à l’aide d’un algorithme de k-modes adapté au caractère binaire des données à traiter et à l’aide d’une version généralisée de la distance classique de Hamming. La troisième utilise les informations riemanniennes des variétés issues des différentes façons de représenter géométriquement une image hyperspectrale. Les segmentations se font une nouvelle fois par clustering à l’aide d’un algorithme de k-means. Nous exploitons pour cela les propriétés géométriques de l’espace des matrices symétriques définies positives, induites par la métrique de Fisher Rao
Hyperspectral images provided by modern spectrometers are composed of reflectance values at hundreds of narrow spectral bands covering a wide range of the electromagnetic spectrum. Since spectral reflectance differs for most of the materials or objects present in a given scene, hyperspectral image processing and analysis find many real-life applications. We address in this work the problem of unsupervised hyperspectral image segmentation following three distinct approaches. The first one is of Graph Embedding type and necessitates two steps : first, pixels of the original image patchs are compared using a spectral similarity measure and then objects obtained by local segmentations are fusioned by means of a similarity measure between objects. The second one is of Spectral Hashing or Semantic Hashing type. We first define a binary encoding of spectral variations and then propose a clustering segmentation relying on a k- mode classification algorithm adapted to the categorical nature of the data, the chosen distance being a generalized version of the classical Hamming distance. In the third one, we take advantage of the geometric information given by the manifolds associated to the images. Using the metric properties of the space of Riemannian metrics, that is the space of symmetric positive definite matrices, endowed with the so-called Fisher Rao metric, we propose a k-means algorithm to obtain a cluster partitioning of the image
6

Saint, Michel Thierry. "Filtrage non linéaire en vue d'une segmentation semi supervisée appliquée à l'imagerie médicale". Lille 1, 1997. http://www.theses.fr/1997LIL10110.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse est consacré à une méthode de segmentation semi-supervisée, basée sur les opérations morphologiques à niveau de gris. Cette étude a été réalisé en collaboration avec le service de neuroradiologie du C. H. R. U. De Lille, dans le cadre d'une segmentation de régions et de lésions cérébrale. La difficulté de détecter des régions ou contours, est la réalité des images médicales (complexité des formes). En effet les valeurs attribuées à l'image sont accompagnées d'un bruit qui est la conséquence des troncatures de calcul, mais aussi des phénomènes physiques liés au fonctionnement des capteurs (patient, environnement, circuits électroniques. . . ). Ce bruit, en plus d'être différent entre le fond et l'objet, engendre des difficultés majeures de détection. Face à ces obstacles pour la segmentation, nous nous efforçons d'obtenir des images plus simples et plus structurées en effectuant un pré - traitement (filtrage) afin d'éliminer le bruit. Le filtre non linéaire à compensation de bruit - comb-, que nous proposons, basé sur les opérations de morphologique mathématique ouverture et fermeture, réduit les fluctuations de niveaux de gris sans modifier les transitions entre les différents objets. Il classifie certaines régions de l'image par tri des valeurs de niveaux de gris. Pour montrer une application de ce filtre, nous proposons une méthode de calcul de dérivée seconde partielle du niveau de gris à partir de l'inversion de la formule de rehaussement de contraste morphologique. Ce calcul permet d'étudier les variations de niveaux de gris, et de déterminer un contour compris entre deux contours extremums représentant le début et la fin de cette transition. Finalement nous avons réalisé un logiciel permettant d'effectuer diverses reconstructions et mesures.
7

Mignotte, Max. "Segmentation d'images sonar par approche markovienne hiérarchique non supervisée et classification d'ombres portées par modèles statistiques". Brest, 1998. http://www.theses.fr/1998BRES2017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces dernieres annees, de nombreuses ameliorations ont rendu les sonar haute resolution de plus en plus performants ; zones explorees plus vastes et visualisation des fonds marins et des objets reposant sur ceux-ci sous forme d'images etc en contre partie, la quantite d'informations a sensiblement augmentee et rend aujourd'hui necessaire d'automatiser la detection et la classification de ces objets. Celle-ci est realisee grace a une analyse de la forme de l'ombre qu'ils produisent sur les images sonar. L'automatisation de la phase de classification requiert donc une premiere etape de segmentation. A cette fin, un modele hierarchique markovien utilisant un systeme de voisinage spatial et causal en echelle ainsi qu'une strategie de minimisation multigrille ont ete definis. Le probleme de l'estimation automatique des parametres de ce modele a ete developpe dans le but de definir une segmentation non supervisee. Il comporte l'identification du melange de lois relatif au terme d'attache aux donnees et des parametres de regularisation contextuelle. Nous avons ensuite propose une methode de classification des ombres portees. L'approche adoptee utilise les modeles statistiques et repose sur une formulation bayesienne du probleme. Elle comprend la definition d'une forme prototype a laquelle est appliquees une combinaison de deformations geometriques lineaires. Dans ce cadre, le probleme de la classification d'un objet est equivalent a un probleme d'estimation bayesienne des parametres de deformation du modele. Cette estimation conduit a la minimisation d'une fonction d'energie, realisee par une procedure d'optimisation genetique. Afin d'ameliorer cette classification, un modele statistique pour la classification des fonds en imagerie sonar, utilisant une analyse des formes d'ombres que produit chaque type de fond et un module decision floue, a ete parallelement propose. Des validations importantes sur images sonar synthetiques et reelles sont enfin presentees.
8

Quelle, Hans-Christoph. "Segmentation bayesienne non supervisee en imagerie radar". Rennes 1, 1993. http://www.theses.fr/1993REN10012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Segmentation bayesienne non supervisee en imagerie radar. La these est consacree a la segmentation statistique non supervisee en imagerie radar. L'accent a ete mis sur les methodes locales, qui au contraire des methodes globales ne necessitent pas l'hypothese d'independance des donnees observees conditionnellement a une realisation du terrain. Dans une premiere partie l'influence du contexte spatial sur l'estimation des parametres utilises par le modele d'image hierarchique et sur la segmentation bayesienne des images d'intensites mono-vue et multi-vues a ete etudie. Ensuite nous avons propose une methode d'estimation adaptative de parametres (asem) base sur l'estimateur sem, permettant la segmentation bayesienne des scenes homogenes, non-stationnaires. Les tests effectues sur des images de synthese et reelles ont montre la superiorite de la segmentation bayesienne utilisant les parametres estimes avec l'asem par rapport a la segmentation utilisant les parametres estimes avec le sem, mais aussi, sous certaines conditions, sur des images de synthese stationnaire. Dans une derniere partie l'idee d'une generalisation du modele d'image hierarchique de kelly et derin est proposee permettant l'adaptation de la probabilite marginale de chaque composant du melange aux differentes regions de l'image
9

Martel-Brisson, Nicolas. "Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés". Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29093/29093.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Giordana, Nathalie. "Segmentation non supervisee d'images multi-spectrales par chaines de markov cachees". Compiègne, 1996. http://www.theses.fr/1996COMP981S.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these est consacree a la segmentation non supervisee d'images multi-spectrales par chaines de markov cachees et plus particulierement a l'etude de l'etape d'estimation. L'objet de ce travail est de concevoir des methodes permettant d'estimer des melanges de lois generalises. Ces methodes d'estimation fondees sur l'algorithme ice permettent de detecter parmi un ensemble de lois, celles qui sont le plus fideles a la realite et d'estimer les parametres correspondant a chacune des lois detectees. Les etudes comparatives des differentes methodes mises au point avec les methodes classiques em et ice, sur des chaines simulees puis sur des images, montrent l'efficacite des algorithmes generalises. Nous etudions egalement la segmentation multi-spectrale en considerant des canaux independants pour traiter les melanges generalises et des canaux correles dans le cas de melanges gaussiens. Nous mettons ainsi en evidence l'interet ou non de l'ajout de canaux d'observations. Dans ce cadre de la fusion de donnees, nous nous interessons a la theorie de l'evidence. Nous introduisons alors la notion de chaine de markov cachee evidentielle et nous developpons les methodes de segmentation qui lui sont associee. Les etudes effectuees sur des chaines montrent l'interet de cette modelisation mais egalement ses difficultes de mise en uvre dans un cadre non supervisee
11

PENG, ANRONG. "Segmentation statistique non supervisee d'images et detection de contours par filtrage". Compiègne, 1992. http://www.theses.fr/1992COMP0512.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à deux catégories de méthodes de la segmentation d'images: la segmentation statistique non supervisée et la détection de contours par filtrage. Les contributions de ce travail reposent sur les études des deux familles de méthodes en soi et sur leur mise en parallèle. Dans la première partie, nous abordons la segmentation Bayesienne non supervisée. Des algorithmes d'estimation préalable à la segmentation contextuelle, tels que EM, ICE, SEM, sont étudiés. Puis ces estimateurs valables dans les champs stationnaires sont adaptés aux champs non stationnaires. En levant l'hypothèse de stationnarité pour le champ de classes, les segmentations contextuelles donnent des résultats nettement meilleurs dans certains cas. Après une application de diverses combinaisons des estimateurs et des segmentations à des images différemment bruitées, nous menons une comparaison des performances des estimateurs suivant des caractéristiques du bruit. Une étude de la robustesse de la segmentation contextuelle est effectuée, ce qui est utile pour le choix d'un estimateur, ainsi que pour la définition d'un compromis entre la précision de l'estimation et le temps de calcul. La deuxième partie est consacrée à la détection de contours par filtrage. Une définition des contours utilisant l'ordre de discontinuité est d'abord proposée. La méthodologie de la détection de contours d'ordre 0 (contour échelon) est généralisée aux contours de discontinuité d'ordre quelconque. Le problème de la détection de contours est ainsi réduit à la recherche d'un filtre de lissage optimal dont la forme joue un rôle important. L'accent est donc mis sur l'étude des formes de filtres de lissage existants. Un exemple de cette généralisation, la détection du contour rampe, est appliquée aux images simulées et images réelles. La troisième partie est consacrée à la mise en parallèle des deux familles de méthodes. Après une étude sur leurs profils différents et points communs du point de vue théorique, l'objectif principal est la comparaison de la qualité, tant visuelle que selon des critères objectifs, des contours obtenus par deux familles de méthodes. Les comparaisons sont effectuées également au sein d'une même famille. Des algorithmes d'estimation, ICE stationnaire et ICE non stationnaire, combinés avec les méthodes de segmentation, telles que aveugle et contextuelle, sont choisis comme représentants de la première famille. Le filtre de Shen est choisi comme représentant de la deuxième famille. Cette étude met en lumière les différences de comportement des deux familles de méthodes, et peut ainsi servir à la décision quant au choix de la méthode la plus appropriée en fonction de propriétés objectives des images.
12

BENMILOUD, BTISSAM. "Chaines de markov cachees et segmentation non supervisee de sequences d'images". Paris 7, 1994. http://www.theses.fr/1994PA077120.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these est consacree a la segmentation non supervisee des sequences d'images dans le cadre des modelisations par chaines de markov cachees. Nous mettons l'accent sur la phase d'estimation des parametres, prealable a la phase de segmentation. Nous proposons plusieurs algorithmes originaux d'estimation des parametres obtenus a partir des methodes iterative conditional estimation et stochastic estimation maximisation. Nous montrons leur competitivite vis a vis de l'algorithme estimation maximisation, le plus frequemment utilise pour l'identification des chaines de markov cachees dans differents cas d'homogeneite et de bruitage des chaines. Une etude du comportement de ces differents estimateurs combines avec la methode maximum posterior mode est egalement effectuee sur plusieurs chaines simulees. Nous appliquons ensuite les memes algorithmes sur des images simulees ou reelles. Nous transformons l'image en processus mono dimensionnel grace au parcours de peano. Nous beneficions ainsi de methodes souples et rapides pour la segmentation non supervisee des images. Nous etudions egalement la segmentation locale dans le cas des chaines de markov cachees, en tenant compte d'un certain nombre de voisins les plus proches. Nous exposons ensuite la segmentation non supervisee adaptative basee sur le concept d'estimation locale. Une etude de robustesse des methodes de segmentation a ete abordee, elle permet de choisir des estimateurs selon le comportement de la methode de segmentation vis a vis des parametres estimes. Enfin, une partie de ce travail est consacree a la segmentation spatio temporelle des sequences d'images dans le cas de la modelisation par chaines de markov cachees. Nous proposons trois algorithmes de segmentation non supervisee qui different par la facon d'exploiter l'information contenue dans les images precedentes
13

Kurtz, Camille. "Une approche collaborative segmentation - classification pour l'analyse descendante d'images multirésolutions". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00735217.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis la fin des années 1990, les images optiques à très hautes résolutions spatiales issues de capteurs satellitaires sont de plus en plus accessibles par une vaste communauté d'utilisateurs. En particulier, différents systèmes satellitaires sont maintenant disponibles et produisent une quantité de données importante, utilisable pour l'observation de la Terre. En raison de cet important volume de données,les méthodes analytiques manuelles deviennent inadaptées pour un traitement efficace de ces données. Il devient donc crucial d'automatiser ces méthodes par des procédés informatiques, capables de traiter cette quantité de données hétérogènes.Dans le cadre de cette thèse, nos recherches se sont focalisées sur le développement de nouvelles approches basées régions (i.e., segmentation et classification) permettant l'extraction de plusieurs niveaux de connaissance et d'information à partir d'ensembles d'images à différentes résolutions spatiales. De telles images offrent en effet des vues différentes de la scène étudiée, ce qui peut permettre de faciliter l'extraction des objets d'intérêt. Ces derniers étant structurés sous la forme de hiérarchies d'objets complexes, nos travaux se sont naturellement tournés (1) vers l'utilisation d'approches de segmentation hiérarchique fournissant des ensembles de partitions de la scène à différents niveaux de détail et (2) vers l'intégration de connaissances de haut-niveau dans les processus de fouille de données. De manière plus générale, nous nous sommes intéressés à élaborer un outil informatique reposant sur une stratégie d'analyse descendante,similaire à celle d'un utilisateur, qui consiste à interpréter la scène en considérant, en premier lieu, les grandes zones composant les territoires (à partir des images aux résolutions les plus grossières) puis à affiner récursivement le niveau d'interprétation pour en extraire des zones plus spécialisées (à partir des images aux résolutions les plus fines).L'ensemble de ces travaux a été implanté dans une bibliothèque logicielle et validé dans le contexte de l'analyse d'environnements urbains à partir d'ensembles d'images multi résolutions.
14

Yahiaoui, Meriem. "Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place
Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
15

Fontaine, Michaël Macaire Ludovic Postaire Jack-Gérard. "Segmentation non supervisée d'images couleur par analyse de la connexité des pixels". [S.l.] : [s.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2001-305-306.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Hijazi, Hala. "Proposition d'une méthode spectrale combinée LDA et LLE pour la réduction non-linéaire de dimension : Application à la segmentation d'images couleurs". Thesis, Littoral, 2013. http://www.theses.fr/2013DUNK0516.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les méthodes d'analyse de données et d'apprentissage ont connu un développement très important ces dernières années. En effet, après les réseaux de neurones, les machines à noyaux (années 1990), les années 2000 ont vu l'apparition de méthodes spectrales qui ont fourni un cadre mathématique unifié pour développer des méthodes de classification originales. Parmi celles-ci ont peut citer la méthode LLE pour la réduction de dimension non linéaire et la méthode LDA pour la discrimination de classes. Une nouvelle méthode de classification est proposée dans cette thèse, méthode issue d'une combinaison des méthodes LLE et LDA. Cette méthode a donné des résultats intéressants sur des ensembles de données synthétiques. Elle permet une réduction de dimension non-linéaire suivie d'une discrimination efficace. Ensuite nous avons montré que cette méthode pouvait être étendue à l'apprentissage semi-supervisé. Les propriétés de réduction de dimension et de discrimination de cette nouvelle méthode, ainsi que la propriété de parcimonie inhérente à la méthode LLE nous ont permis de l'appliquer à la segmentation d'images couleur avec succès. La propriété d'apprentissage semi-supervisé nous a enfin permis de segmenter des images bruitées avec de bonnes performances. Ces résultats doivent être confortés mais nous pouvons d'ores et déjà dégager des perspectives de poursuite de travaux intéressantes
Data analysis and learning methods have known a huge development during these last years. Indeed, after neural networks, kernel methods in the 90', spectral methods appeared in the years 2000. Spectral methods provide an unified mathematical framework to expand new original classification methods. Among these new techniques, two methods can be highlighted : LLE for non-linear dimension reduction and LDA as discriminating classification method. In this thesis document a new classification technique is proposed combining LLE and LDA methods. This new method makes it possible to provide efficient non-linear dimension reduction and discrimination. Then an extension of the method to semi-supervised learning is proposed. Good properties of dimension reduction and discrimination associated with the sparsity property of the LLE technique make it possible to apply our method to color images segmentation with success. Semi-supervised version of our method leads to efficient segmentation of noisy color images. These results have to be extended and compared with other state-of-the-art methods. Nevertheless interesting perspectives of this work are proposed in conclusion for future developments
17

Yahiaoui, Meriem. "Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place
Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
18

OULD, AHMEDOU MOHAMED LEMINE. "Ameliorations de methodes de classification automatique non supervisee pour la segmentation d'images multi-composantes". Reims, 1998. http://www.theses.fr/1998REIMS017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'imagerie multi-composantes (couleur, multispectrale, miltimodalite, ou biomedicale) est en fort developpement, et le methodes de classification automatiques sont souvent necessaires pour la segmentation de telles images. Les approches classiques sont basees essentiellement sur la determination des partitions dures, qui imposent qu'un element appartient a une classe, alors qu'en pratique, les classes peuvent etre chevauchantes avec des frontieres mal delimitees et ne peuvent pas etre definies par des partitions dures. Nous avons vu comment la logique floue integre la notion de chevauchement entre plusieurs classes en autorisant un element a appartenir avec un certain degre a plusieurs classes. Les methodes du type fuzzy c-means sont generalement soumises a la contrainte d'inspiration probabiliste, et par consequent, ces methodes correspondent a des approches discriminantes ou l'objectif premier est de separer les elements en differentes classes. Nous avons montre que l'approche possibiliste des c-means, qui promettait une representativite intrinseque des objets aux differents regroupements echoue a atteindre les resultats qui sont a l'origine de son apparition. Notre contribution majeur a consiste a definir et evaluer une nouvelle approche qui combine les avantages des deux approches precedentes : les degres d'appartenance que nous generons representent une notion relative. En effet, dans la meme classe l'appartenance represente la typicalite, cependant, en dehors d'une classe l'appartenance represente plutot le partage. L'importance de la nouvelle approche a ete montre au long de ce travail essentiellement sur la base de la segmentation des images multi-composantes. En effet, les resultats obtenus par la nouvelle approche sont meilleurs notamment en presence des donnees bruitees. A noter egalement l'independance des resultats de l'approche par rapport au changement de dynamique des attributs ce qui n'est pas toujours verifie par les autres methodes.
19

Constantinides, Constantin. "Segmentation automatisée du ventricule gauche en IRM cardiaque : Evaluation supervisée et non supervisée de cette approche et application à l'étude de la viabilité myocardique". Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif de parvenir à une estimation automatisée des contours du ventricule gauche sur des images IRM en coupes petit-axe, nécessitant un minimum d’interventions de la part de l’utilisateur. En s’appuyant sur une approche semi-automatique récemment développée, une méthode entièrement automatique est proposée, reposant sur la localisation des structures cardiaques et la création d’une région d’intérêt autour du ventricule gauche, puis la segmentation de sa cavité. L’algorithme a été développé en prenant en compte des connaissances anatomiques et fonctionnelles sur le cœur : les caractéristiques temporelles du battement cardiaque, la pseudo-circularité des coupes petit-axe du ventricule gauche, la continuité 3D qui ont été combinées à l’intensité dans les images. La segmentation utilise une approche fondée sur les contours actifs combinée à un filtrage morphologique qui améliore la robustesse de la segmentation vis-à-vis des hétérogénéités au sein de la cavité. Le travail réalisé avec le groupe MedIEval (MedicalImaging Evaluation) a permis de comparer les deux méthodes avec 6 autres méthodes, dont 3 tracés d'experts. Une classification par une approche d’évaluation sans référence a été appliquée à la fraction d’éjection estimée par les 8 méthodes. Enfin, la méthode de segmentation proposée a été utilisée systématiquement dans une étude de recherche clinique combinant l’étude de la contraction régionale et la quantification de la transmuralité de l’infarctus du myocarde. Ces travaux ouvrent des perspectives, sur l’automatisation de la segmentation du ventricule droit et l’estimation d’une forme mutuelle robuste à partir de plusieurs segmentations
The aim of this work is to perform an automated segmentation of the Left Ventricle on short-axis cardiac MR images with as few user interactions as possible. Based on a recently developed semi-automated segmentation method, a fully automated segmentation method is proposed that includes three main steps: the heart localization, the definition of a region of interest around the left ventricle, and finally its segmentation. The algorithm developed here takes into account anatomic and functional a priori information such as the temporal features of the heartbeat, the pseudo-circular shape of the LV, and the 3D continuity, combined with the image intensity features. The segmentation process is achieved using deformable models combined with morphological filters, which improve the model performances when dealing with heterogeneous gray levels within the cavity. The work achieved within the MedIEval group (Medical Imaging Evaluation) allowed to compare both proposed methods with 6 other methods, including 3 manual delineations by experts. In particular, an approach for ranking segmentation methods without using a gold standard was applied to the ejection fractions estimated by the 8 methods. Finally, the proposed segmentation method was used in a clinical research work about the regional contraction and thequantification of the myocardial infarction extent.Future work includes the automated segmentation of the right ventricle as well as the estimation of a robust mutual shape from several segmentation methods
20

Liu, Siwei. "Apport d'un algorithme de segmentation ultra-rapide et non supervisé pour la conception de techniques de segmentation d'images bruitées". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4371.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La segmentation d'image constitue une étape importante dans le traitement d'image et de nombreuses questions restent ouvertes. Il a été montré récemment, dans le cas d'une segmentation à deux régions homogènes, que l'utilisation de contours actifs polygonaux fondés sur la minimisation d'un critère issu de la théorie de l'information permet d'aboutir à un algorithme ultra-rapide qui ne nécessite ni paramètre à régler dans le critère d'optimisation, ni connaissance a priori sur les fluctuations des niveaux de gris. Cette technique de segmentation rapide et non supervisée devient alors un outil élémentaire de traitement.L'objectif de cette thèse est de montrer les apports de cette brique élémentaire pour la conception de nouvelles techniques de segmentation plus complexes, permettant de dépasser un certain nombre de limites et en particulier :- d'être robuste à la présence dans les images de fortes inhomogénéités ;- de segmenter des objets non connexes par contour actif polygonal sans complexifier les stratégies d'optimisation ;- de segmenter des images multi-régions tout en estimant de façon non supervisée le nombre de régions homogènes présentes dans l'image.Nous avons pu aboutir à des techniques de segmentation non supervisées fondées sur l'optimisation de critères sans paramètre à régler et ne nécessitant aucune information sur le type de bruit présent dans l'image. De plus, nous avons montré qu'il était possible de concevoir des algorithmes basés sur l'utilisation de cette brique élémentaire, permettant d'aboutir à des techniques de segmentation rapides et dont la complexité de réalisation est faible dès lors que l'on possède une telle brique élémentaire
Image segmentation is an important step in many image processing systems and many problems remain unsolved. It has recently been shown that when the image is composed of two homogeneous regions, polygonal active contour techniques based on the minimization of a criterion derived from information theory allow achieving an ultra-fast algorithm which requires neither parameter to tune in the optimized criterion, nor a priori knowledge on the gray level fluctuations. This algorithm can then be used as a fast and unsupervised processing module. The objective of this thesis is therefore to show how this ultra-fast and unsupervised algorithm can be used as a module in the conception of more complex segmentation techniques, allowing to overcome several limits and particularly:- to be robust to the presence of strong inhomogeneity in the image which is often inherent in the acquisition process, such as non-uniform illumination, attenuation, etc.;- to be able to segment disconnected objects by polygonal active contour without complicating the optimization strategy;- to segment multi-region images while estimating in an unsupervised way the number of homogeneous regions in the image.For each of these three problems, unsupervised segmentation techniques based on the optimization of Minimum Description Length criteria have been obtained, which do not require the tuning of parameter by user or a priori information on the kind of noise in the image. Moreover, it has been shown that fast segmentation techniques can be achieved using this segmentation module, while keeping reduced implementation complexity
21

Constantinides, Constantin. "Segmentation automatisée du ventricule gauche en IRM cardiaque : Evaluation supervisée et non supervisée de cette approche et application à l'étude de la viabilité myocardique". Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00982333.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif de parvenir à une estimation automatisée des contours du ventricule gauche sur des images IRM en coupes petit-axe, nécessitant un minimum d'interventions de la part de l'utilisateur. En s'appuyant sur une approche semi-automatique récemment développée, une méthode entièrement automatique est proposée, reposant sur la localisation des structures cardiaques et la création d'une région d'intérêt autour du ventricule gauche, puis la segmentation de sa cavité. L'algorithme a été développé en prenant en compte des connaissances anatomiques et fonctionnelles sur le cœur : les caractéristiques temporelles du battement cardiaque, la pseudo-circularité des coupes petit-axe du ventricule gauche, la continuité 3D qui ont été combinées à l'intensité dans les images. La segmentation utilise une approche fondée sur les contours actifs combinée à un filtrage morphologique qui améliore la robustesse de la segmentation vis-à-vis des hétérogénéités au sein de la cavité. Le travail réalisé avec le groupe MedIEval (MedicalImaging Evaluation) a permis de comparer les deux méthodes avec 6 autres méthodes, dont 3 tracés d'experts. Une classification par une approche d'évaluation sans référence a été appliquée à la fraction d'éjection estimée par les 8 méthodes. Enfin, la méthode de segmentation proposée a été utilisée systématiquement dans une étude de recherche clinique combinant l'étude de la contraction régionale et la quantification de la transmuralité de l'infarctus du myocarde. Ces travaux ouvrent des perspectives, sur l'automatisation de la segmentation du ventricule droit et l'estimation d'une forme mutuelle robuste à partir de plusieurs segmentations.
22

DERRAS, MUSTAPHA. "Segmentation non supervisee d'images texturees par champs de markov : application a l'automatisation de l'entretien des espaces naturels". Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21562.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail expose dans ce memoire vise la demonstration de la faisabilite d'un systeme de guidage par traitement d'images afin d'assurer l'asservissement d'un engin d'entretien des espaces naturels et, de facon plus generale, de machines agricoles, sur une limite de fauche. La premiere etape de notre travail est consacree a une etude realisee sur le terrain qui nous permet de caracteriser le milieu dans lequel nous evoluons. Les conclusions decoulant de la mise en uvre d'une premiere methode de traitement d'images nous conduisent a l'utilisation de techniques plus sophistiquees. Nous reconsiderons alors une perception de l'image en nous interessant a la texture afin d'obtenir une decoupe de l'image en regions homogenes. Nous cherchons ensuite un outil adapte a la segmentation non supervisee des scenes de fauche. Pour cela, nous optons pour l'utilisation des champs de markov et, plus specialement, de l'algorithme icm (iterated conditional mode). La mise en uvre de cette approche donnant satisfaction, la decoupe de l'image ainsi obtenue est ensuite confiee a une etape d'analyse dont le but consiste a determiner la position de la limite de fauche dans l'image. L'imperatif du projet etant de tester le processus en conditions reelles sur la machine, nous aboutissons a la realisation d'une machine parallele capable d'accueillir notre algorithme. La demarche generale que nous avons adoptee a conduit a des tests reels sur le terrain de l'ensemble du processus. Demontrer la possibilite de realisation d'un tel systeme de vision nous permet de prendre pied dans un secteur d'activites regroupant toutes les difficultes que peuvent rencontrer aussi bien la robotique mobile que la visionique
23

Chung, François. "Modélisation de l'apparence de régions pour la segmentation d'images basée modèle". Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00575796.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à un nouveau modèle d'apparence pour la segmentation d'images basée modèle. Ce modèle, dénommé Multimodal Prior Appearance Model (MPAM), est construit à partir d'une classification EM de profils d'intensité combinée avec une méthode automatique pour déterminer le nombre de classes. Contrairement aux approches classiques basées ACP, les profils d'intensité sont classifiés pour chaque maillage et non pour chaque sommet. Tout d'abord, nous décrivons la construction du MPAM à partir d'un ensemble de maillages et d'images. La classification de profils d'intensité et la détermination du nombre de régions par un nouveau critère de sélection sont expliquées. Une régularisation spatiale pour lisser la classification est présentée et la projection de l'information d'apparence sur un maillage de référence est décrite. Ensuite, nous présentons une classification de type spectrale dont le but est d'optimiser la classification des profils pour la segmentation. La représentation de la similitude entre points de données dans l'espace spectral est expliquée. Des résultats comparatifs sur des profils d'intensité du foie à partir d'images tomodensitométriques montrent que notre approche surpasse les modèles basés ACP. Finalement, nous présentons des méthodes d'analyse pour les structures des membres inférieurs à partir d'images IRM. D'abord, notre technique pour créer des modèles spécifiques aux sujets pour des simulations cinématiques des membres inférieurs est décrite. Puis, la performance de modèles statistiques est comparée dans un contexte de segmentation des os lorsqu'un faible ensemble de données est disponible.
24

Chahine, Chaza. "Fusion d'informations par la théorie de l'évidence pour la segmentation d'images". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fusion d’informations a été largement étudiée dans le domaine de l’intelligence artificielle. Une information est en général considérée comme imparfaite. Par conséquent, la combinaison de plusieurs sources d’informations (éventuellement hétérogènes) peut conduire à une information plus globale et complète. Dans le domaine de la fusion on distingue généralement les approches probabilistes et non probabilistes dont fait partie la théorie de l’évidence, développée dans les années 70. Cette méthode permet de représenter à la fois, l’incertitude et l’imprécision de l’information, par l’attribution de fonctions de masses qui s’appliquent non pas à une seule hypothèse (ce qui est le cas le plus courant pour les méthodes probabilistes) mais à un ensemble d’hypothèses. Les travaux présentés dans cette thèse concernent la fusion d’informations pour la segmentation d’images.Pour développer cette méthode nous sommes partis de l’algorithme de la « Ligne de Partage des Eaux » (LPE) qui est un des plus utilisés en détection de contours. Intuitivement le principe de la LPE est de considérer l’image comme un relief topographique où la hauteur d’un point correspond à son niveau de gris. On suppose alors que ce relief se remplit d’eau par des sources placées au niveau des minima locaux de l’image, formant ainsi des bassins versants. Les LPE sont alors les barrages construits pour empêcher les eaux provenant de différents bassins de se mélanger. Un problème de cette méthode de détection de contours est que la LPE directement appliquée sur l’image engendre une sur-segmentation, car chaque minimum local engendre une région. Meyer et Beucher ont proposé de résoudre cette question en spécifiant un ensemble de marqueurs qui seront les seules sources d’inondation du relief. L'extraction automatique des marqueurs à partir des images ne conduit pas toujours à un résultat satisfaisant, en particulier dans le cas d'images complexes. Plusieurs méthodes ont été proposées pour déterminer automatiquement ces marqueurs.Nous nous sommes en particulier intéressés à l’approche stochastique d’Angulo et Jeulin qui estiment une fonction de densité de probabilité (fdp) d'un contour (LPE) après M simulations de la segmentation LPE classique. N marqueurs sont choisis aléatoirement pour chaque réalisation. Par conséquent, une valeur de fdp élevée est attribuée aux points de contours correspondant aux fortes réalisations. Mais la décision d’appartenance d’un point à la « classe contour » reste dépendante d’une valeur de seuil. Un résultat unique ne peut donc être obtenu.Pour augmenter la robustesse de cette méthode et l’unicité de sa réponse, nous proposons de combiner des informations grâce à la théorie de l’évidence.La LPE se calcule généralement à partir de l’image gradient, dérivée du premier ordre, qui donne une information globale sur les contours dans l’image. Alors que la matrice Hessienne, matrice des dérivées d’ordre secondaire, donne une information plus locale sur les contours. Notre objectif est donc de combiner ces deux informations de nature complémentaire en utilisant la théorie de l’évidence. Les différentes versions de la fusion sont testées sur des images réelles de la base de données Berkeley. Les résultats sont comparés avec cinq segmentations manuelles fournies, en tant que vérités terrain, avec cette base de données. La qualité des segmentations obtenues par nos méthodes sont fondées sur différentes mesures: l’uniformité, la précision, l’exactitude, la spécificité, la sensibilité ainsi que la distance métrique de Hausdorff
Information fusion has been widely studied in the field of artificial intelligence. Information is generally considered imperfect. Therefore, the combination of several sources of information (possibly heterogeneous) can lead to a more comprehensive and complete information. In the field of fusion are generally distinguished probabilistic approaches and non-probabilistic ones which include the theory of evidence, developed in the 70s. This method represents both the uncertainty and imprecision of the information, by assigning masses not only to a hypothesis (which is the most common case for probabilistic methods) but to a set of hypothesis. The work presented in this thesis concerns the fusion of information for image segmentation.To develop this method we start with the algorithm of Watershed which is one of the most used methods for edge detection. Intuitively the principle of the Watershed is to consider the image as a landscape relief where heights of the different points are associated with grey levels. Assuming that the local minima are pierced with holes and the landscape is immersed in a lake, the water filled up from these minima generate the catchment basins, whereas watershed lines are the dams built to prevent mixing waters coming from different basins.The watershed is practically applied to the gradient magnitude, and a region is associated with each minimum. Therefore the fluctuations in the gradient image and the great number of local minima generate a large set of small regions yielding an over segmented result which can hardly be useful. Meyer and Beucher proposed seeded watershed or marked-controlled watershed to surmount this oversegmentation problem. The essential idea of the method is to specify a set of markers (or seeds) to be considered as the only minima to be flooded by water. The number of detected objects is therefore equal to the number of seeds and the result is then markers dependent. The automatic extraction of markers from the images does not lead to a satisfying result especially in the case of complex images. Several methods have been proposed for automatically determining these markers.We are particularly interested in the stochastic approach of Angulo and Jeulin who calculate a probability density function (pdf) of contours after M simulations of segmentation using conventional watershed with N markers randomly selected for each simulation. Therefore, a high pdf value is assigned to strong contour points that are more detected through the process. But the decision that a point belong to the "contour class" remains dependent on a threshold value. A single result cannot be obtained.To increase the robustness of this method and the uniqueness of its response, we propose to combine information with the theory of evidence.The watershed is generally calculated on the gradient image, first order derivative, which gives comprehensive information on the contours in the image.While the Hessian matrix, matrix of second order derivatives, gives more local information on the contours. Our goal is to combine these two complementary information using the theory of evidence. The method is tested on real images from the Berkeley database. The results are compared with five manual segmentation provided as ground truth, with this database. The quality of the segmentation obtained by our methods is tested with different measures: uniformity, precision, recall, specificity, sensitivity and the Hausdorff metric distance
25

Cutrona, Jérôme. "Analyse de forme des objets biologiques : représentation, classification et suivi temporel". Reims, 2003. http://www.theses.fr/2003REIMS018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En biologie, les relations entre la forme, élément majeur de la vision par ordinateur, et la fonction ont depuis longtemps été mises en évidence. Cette thèse présente une chaîne de traitement permettant d'aboutir à la classification non supervisée de formes, au suivi de déformation et à la classification supervisée de populations d'objets. Nous proposons dans un premier temps une contribution en segmentation automatique basée sur une procédure de classification floue, ainsi que deux méthodes semi-automatiques s'appuyant sur la connectivité floue et les lignes de partage des eaux. Nous menons ensuite une étude sur plusieurs descripteurs de la forme des objets utilisant des primitives et des anti-primitives, le contour , la silhouette et la courbure multi-échelle. Après mise en correspondance, les descripteurs sont soumis à une analyse statistique pour mettre en évidence les modes de variations au sein des échantillons. Le modèle statistique obtenu est à la base des applications proposées
N biology, the relationship between shape, a major element in computer vision, and function has been emphasized since a long time. This thesis proposes a processing line leading to unsupervised shape classification, deformation tracking and supervised classification of whole population of objects. We first propose a contribution to unsupervised segmentation based on a fuzzy classification method and two semi-automatic methods founded on fuzzy connectedness and watersheds. Next, we perform a study on several shape descriptors including primitives and anti-primitives, contour, silhouete and multi-scale curvature. After shape matching, the descriptors are submitted to statistical analysis to highlight the modes of variations within the samples. The obtained statistical model is the basis of the proposed applications
26

Carel, Elodie. "Segmentation de documents administratifs en couches couleur". Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS014/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les entreprises doivent traiter quotidiennement de gros volumes de documents papiers de toutes sortes. Automatisation, traçabilité, alimentation de systèmes d’informations, réduction des coûts et des délais de traitement, la dématérialisation a un impact économique évident. Pour respecter les contraintes industrielles, les processus historiques d’analyse simplifient les images grâce à une séparation fond/premier-plan. Cependant, cette binarisation peut être source d’erreurs lors des étapes de segmentation et de reconnaissance. Avec l’amélioration des techniques, la communauté d’analyse de documents a montré un intérêt croissant pour l’intégration d’informations colorimétriques dans les traitements, ceci afin d’améliorer leurs performances. Pour respecter le cadre imposé par notre partenaire privé, l’objectif était de mettre en place des processus non supervisés. Notre but est d’être capable d’analyser des documents même rencontrés pour la première fois quels que soient leurs contenus, leurs structures, et leurs caractéristiques en termes de couleurs. Les problématiques de ces travaux ont été d’une part l’identification d’un nombre raisonnable de couleurs principales sur une image ; et d’autre part, le regroupement en couches couleur cohérentes des pixels ayant à la fois une apparence colorimétrique très proche, et présentant une unité logique ou sémantique. Fournies sous forme d’un ensemble d’images binaires, ces couches peuvent être réinjectées dans la chaîne de dématérialisation en fournissant une alternative à l’étape de binarisation classique. Elles apportent en plus des informations complémentaires qui peuvent être exploitées dans un but de segmentation, de localisation, ou de description. Pour cela, nous avons proposé une segmentation spatio-colorimétrique qui permet d’obtenir un ensemble de régions locales perceptuellement cohérentes appelées superpixels, et dont la taille s’adapte au contenu spécifique des images de documents. Ces régions sont ensuite regroupées en couches couleur globales grâce à une analyse multi-résolution
Industrial companies receive huge volumes of documents everyday. Automation, traceability, feeding information systems, reducing costs and processing times, dematerialization has a clear economic impact. In order to respect the industrial constraints, the traditional digitization process simplifies the images by performing a background/foreground separation. However, this binarization can lead to some segmentation and recognition errors. With the improvements of technology, the community of document analysis has shown a growing interest in the integration of color information in the process to enhance its performance. In order to work within the scope provided by our industrial partner in the digitization flow, an unsupervised segmentation approach was chosen. Our goal is to be able to cope with document images, even when they are encountered for the first time, regardless their content, their structure, and their color properties. To this end, the first issue of this project was to identify a reasonable number of main colors which are observable on an image. Then, we aim to group pixels having both close color properties and a logical or semantic unit into consistent color layers. Thus, provided as a set of binary images, these layers may be reinjected into the digitization chain as an alternative to the conventional binarization. Moreover, they also provide extra-information about colors which could be exploited for segmentation purpose, elements spotting, or as a descriptor. Therefore, we have proposed a spatio-colorimetric approach which gives a set of local regions, known as superpixels, which are perceptually meaningful. Their size is adapted to the content of the document images. These regions are then merged into global color layers by means of a multiresolution analysis
27

Le, Thuc Trinh. "Video inpainting and semi-supervised object removal". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT026.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nos jours, l'augmentation rapide de les vidéos crée une demande massive d'applications d'édition de vidéos. Dans cette thèse, nous résolvons plusieurs problèmes relatifs au post-traitement vidéo. Nous nous concentrons sur l'application de suppression d'objets en vidéo. Pour mener à bien cette tâche, nous l'avons divisé en deux problèmes: (1) une étape de segmentation des objets vidéo pour sélectionner les objets à supprimer et (2) une étape d'inpainting vidéo pour remplir les zones endommagées. Pour le problème de la segmentation vidéo, nous concevons un système adapté aux applications de suppression d’objets avec différentes exigences en termes de précision et d’efficacité. Notre approche repose sur la combinaison de réseaux de neurones convolutifs (CNN) pour la segmentation et de la méthode classique de suivi des masks. Nous adoptons des réseaux de segmentation d’images et les appliquons à la casse vidéo en effectuant une segmentation image par image. En exploitant à la fois les formations en ligne et hors ligne avec uniquement une annotation de première image, les réseaux sont en mesure de produire une segmentation extrêmement précise des objets vidéo. En outre, nous proposons un module de suivi de masque pour assurer la continuité temporelle et un module de liaison de masque pour assurer la cohérence de l'identité entre les trames. De plus, nous présentons un moyen simple d’apprendre la couche de dilatation dans le masque, ce qui nous aide à créer des masques appropriés pour l’application de suppression d’objets vidéo.Pour le problème d’inpainting vidéo, nous divisons notre travail en deux catégories basées sur le type de fond. En particulier, nous présentons une méthode simple de propagation de pixels guidée par le mouvement pour traiter les cas d’arrière-plan statiques. Nous montrons que le problème de la suppression d'objets avec un arrière-plan statique peut être résolu efficacement en utilisant une technique simple basée sur le mouvement. Pour traiter le fond dynamique, nous introduisons la méthode d’inpainting vidéo en optimisant une fonction d’énergie globale basée sur des patchs. Pour augmenter la vitesse de l'algorithme, nous avons proposé une extension parallèle de l'algorithme 3D PatchMatch. Pour améliorer la précision, nous intégrons systématiquement le flux optique dans le processus global. Nous nous retrouvons avec une méthode d’inpainting vidéo capable de reconstruire des objets en mouvement ainsi que de reproduire des textures dynamiques tout en fonctionnant dans des délais raisonnables.Enfin, nous combinons les méthodes de segmentation des objets vidéo et d’inpainting vidéo dans un système unifié pour supprimer les objets non souhaités dans les vidéos. A notre connaissance, il s'agit du premier système de ce type. Dans notre système, l'utilisateur n'a qu'à délimiter approximativement dans le premier cadre les objets à modifier. Ce processus d'annotation est facilité par l'aide de superpixels. Ensuite, ces annotations sont affinées et propagées dans la vidéo par la méthode de segmentation des objets vidéo. Un ou plusieurs objets peuvent ensuite être supprimés automatiquement à l’aide de nos méthodes d’inpainting vidéo. Il en résulte un outil de montage vidéo informatique flexible, avec de nombreuses applications potentielles, allant de la suppression de la foule à la correction de scènes non physiques
Nowadays, the rapid increase of video creates a massive demand for video-based editing applications. In this dissertation, we solve several problems relating to video post-processing and focus on objects removal application in video. To complete this task, we divided it into two problems: (1) A video objects segmentation step to select which objects to remove and (2) a video inpainting step to filling the damaged regions.For the video segmentation problem, we design a system which is suitable for object removal applications with different requirements in terms of accuracy and efficiency. Our approach relies on the combination of Convolutional Neural Networks (CNNs) for segmentation and the classical mask tracking method. In particular, we adopt the segmentation networks for image case and apply them to video case by performing frame-by-frame segmentation. By exploiting both offline and online training with first frame annotation only, the networks are able to produce highly accurate video object segmentation. Besides, we propose a mask tracking module to ensure temporal continuity and a mask linking module to ensure the identity coherence across frames. Moreover, we introduce a simple way to learn the dilation layer in the mask, which helps us create suitable masks for video objects removal application.For the video inpainting problem, we divide our work into two categories base on the type of background. In particular, we present a simple motion-guided pixel propagation method to deal with static background cases. We show that the problem of objects removal with a static background can be solved efficiently using a simple motion-based technique. To deal with dynamic background, we introduce video inpainting method by optimization a global patch-based energy function. To increase the speed of the algorithm, we proposed a parallel extension of the 3D PatchMatch algorithm. To improve accuracy, we systematically incorporate the optical flow in the overall process. We end up with a video inpainting method which is able to reconstruct moving objects as well as reproduce dynamic textures while running in a reasonable time.Finally, we combine the video objects segmentation and video inpainting methods into a unified system to removes undesired objects in videos. To the best of our knowledge, this is the first system of this kind. In our system, the user only needs to approximately delimit in the first frame the objects to be edited. These annotation process is facilitated by the help of superpixels. Then, these annotations are refined and propagated through the video by the video objects segmentation method. One or several objects can then be removed automatically using our video inpainting methods. This results in a flexible computational video editing tool, with numerous potential applications, ranging from crowd suppression to unphysical scenes correction
28

Debeir, Olivier. "Segmentation supervisée d'images". Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211474.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Pascal, Barbara. "Estimation régularisée d'attributs fractals par minimisation convexe pour la segmentation de textures : formulations variationnelles conjointes, algorithmes proximaux rapides et sélection non supervisée des paramètres de régularisation; Applications à l'étude du frottement solide et de la microfluidique des écoulements multiphasiques". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose plusieurs procédures pour la segmentation de textures auto-similaires s'appuyant sur deux attributs fractals : l'exposant de Hölder, quantifiant la régularité locale d'une texture, et la variance locale. Un modèle de textures fractales homogènes par morceaux est construit, accompagné d'une procédure de synthèse, fournissant des images composées d'un assemblage de textures fractales d'attributs fixés et de segmentation connue, utilisées pour évaluer les performances des méthodes proposées.Une première méthode, reposant sur la régularisation par Variation Totale d'une estimée brute de la régularité locale, est illustrée, et augmentée d'une étape de post-traitement par seuillage itératif fournissant ainsi une segmentation. Après avoir pointé les limites de cette approche, deux méthodes de segmentation, à contours « libres » ou « co-localisés », sont construites, prenant conjointement en compte la régularité et la variance locales.Ces deux procédures sont formulés comme des problèmes de minimisation de fonctionnelles convexes non lisses.Nous montrons que les fonctionnelles à pénalisations « libre » et « co-localisée » sont toutes deux fortement convexes, et calculons leur module de forte-convexité.Plusieurs schémas de minimisation sont dérivés, et leurs vitesses de convergence sont comparées.Les performances de segmentation des différentes méthodes sont quantifiées sur un large panel de données synthétiques, dans des configurations de difficulté croissante, ainsi que sur des images réelles et comparées aux méthodes de l’état-de-l'art, tels que les réseaux de neurones convolutionnels.Une application à la segmentation d'images provenant d'expériences sur les écoulements multiphasiques en milieu poreux est présentée.Une stratégie, dérivée de l'estimateur SURE de l'erreur quadratique, est mise en oeuvre pour le réglage automatique des hyperparamètres impliqués dans la construction des fonctionnelles à pénalisations « libre » et « co-localisée »
In this doctoral thesis several scale-free texture segmentation procedures based on two fractal attributes, the Hölder exponent, measuring the local regularity of a texture, and local variance, are proposed.A piecewise homogeneous fractal texture model is built, along with a synthesis procedure, providing images composed of the aggregation of fractal texture patches with known attributes and segmentation. This synthesis procedure is used to evaluate the proposed methods performance.A first method, based on the Total Variation regularization of a noisy estimate of local regularity, is illustrated and refined thanks to a post-processing step consisting in an iterative thresholding and resulting in a segmentation.After evidencing the limitations of this first approach, deux segmentation methods, with either "free" or "co-located" contours, are built, taking in account jointly the local regularity and the local variance.These two procedures are formulated as convex nonsmooth functional minimization problems.We show that the two functionals, with "free" and "co-located" penalizations, are both strongly-convex. and compute their respective strong convexity moduli.Several minimization schemes are derived, and their convergence speed are compared.The segmentation performance of the different methods are evaluated over a large amount of synthetic data in configurations of increasing difficulty, as well as on real world images, and compared to state-of-the-art procedures, including convolutional neural networks.An application for the segmentation of multiphasic flow through a porous medium experiment images is presented.Finally, a strategy for automated selection of the hyperparameters of the "free" and "co-located" functionals is built, inspired from the SURE estimator of the quadratic risk
30

Thivin, Solenne. "Détection automatique de cibles dans des fonds complexes. Pour des images ou séquences d'images". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS235/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif principal de ces travaux de thèse a été la mise en place d'un algorithme de détection de cibles sous-résolues pour des images infra-rouges de ciel.Pour cela, nous avons d'abord cherché à modéliser les images réelles dont nous disposions. Après une étude de ces images, nous avons proposé plusieurs modèles gaussiens prenant en compte la covariance spatiale. Dans ces modèles, nous avons supposé que les images pouvaient être segmentées en zones stationnaires. Dans chaque zone, nous avons supposé une structure forte sur la matrice de covariance (comme les modèles auto-régressifs en deux dimensions par exemple).Il a ensuite fallu choisir entre ces modèles. Pour cela, nous avons appliqué une méthode de sélection de modèles par critère de vraisemblance pénalisée introduite par Birgé et Massart. Nous avons obtenu comme résultats théoriques une inégalité oracle qui a permis de démontrer les propriétés statistiques du modèle choisi. Une fois le modèle sélectionné, nous avons pu bâtir un test de détection. Nous nous sommes inspirés de la théorie de Neyman-Pearson et du test du rapport de vraisemblance généralisé. Notre contrainte principale a été le respect du taux de fausses alarmes par image. Pour le garantir, nous avons appris le comportement du test sur les images réelles pour en déduire le seuil à appliquer.~~Nous avons ensuite remarqué que le comportement de ce test variait fortement selon la texture de l'image : image de ciel bleu uniforme, image de nuage très texturé, etc. Après avoir caractérisé les différentes textures rencontrées avec les coefficients de scattering de Stéphane Mallat, nous avons décidé de classer ces textures. Le seuil appliqué lors de la détection a alors été adapté à la texture locale du fond. Nous avons finalement mesuré les performances de cet algorithme sur des images réelles et nous les avons comparées à d'autres méthodes de détection.Mots-clés: Détection, Covariance spatiale, Sélection de modèles, Apprentissage, Classification non supervisée
During this PHD, we developped an detection algorithm. Our principal objective was to detect small targets in a complex background like clouds for example.For this, we used the spatial covariate structure of the real images.First, we developped a collection of models for this covariate structure. Then, we selected a special model in the previous collection. Once the model selected, we applied the likelihood ratio test to detect the potential targets.We finally studied the performances of our algorithm by testing it on simulated and real images
31

Sublime, Jérémie. "Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide
This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations
32

Le, Thuc Trinh. "Video inpainting and semi-supervised object removal". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nos jours, l'augmentation rapide de les vidéos crée une demande massive d'applications d'édition de vidéos. Dans cette thèse, nous résolvons plusieurs problèmes relatifs au post-traitement vidéo. Nous nous concentrons sur l'application de suppression d'objets en vidéo. Pour mener à bien cette tâche, nous l'avons divisé en deux problèmes: (1) une étape de segmentation des objets vidéo pour sélectionner les objets à supprimer et (2) une étape d'inpainting vidéo pour remplir les zones endommagées. Pour le problème de la segmentation vidéo, nous concevons un système adapté aux applications de suppression d’objets avec différentes exigences en termes de précision et d’efficacité. Notre approche repose sur la combinaison de réseaux de neurones convolutifs (CNN) pour la segmentation et de la méthode classique de suivi des masks. Nous adoptons des réseaux de segmentation d’images et les appliquons à la casse vidéo en effectuant une segmentation image par image. En exploitant à la fois les formations en ligne et hors ligne avec uniquement une annotation de première image, les réseaux sont en mesure de produire une segmentation extrêmement précise des objets vidéo. En outre, nous proposons un module de suivi de masque pour assurer la continuité temporelle et un module de liaison de masque pour assurer la cohérence de l'identité entre les trames. De plus, nous présentons un moyen simple d’apprendre la couche de dilatation dans le masque, ce qui nous aide à créer des masques appropriés pour l’application de suppression d’objets vidéo.Pour le problème d’inpainting vidéo, nous divisons notre travail en deux catégories basées sur le type de fond. En particulier, nous présentons une méthode simple de propagation de pixels guidée par le mouvement pour traiter les cas d’arrière-plan statiques. Nous montrons que le problème de la suppression d'objets avec un arrière-plan statique peut être résolu efficacement en utilisant une technique simple basée sur le mouvement. Pour traiter le fond dynamique, nous introduisons la méthode d’inpainting vidéo en optimisant une fonction d’énergie globale basée sur des patchs. Pour augmenter la vitesse de l'algorithme, nous avons proposé une extension parallèle de l'algorithme 3D PatchMatch. Pour améliorer la précision, nous intégrons systématiquement le flux optique dans le processus global. Nous nous retrouvons avec une méthode d’inpainting vidéo capable de reconstruire des objets en mouvement ainsi que de reproduire des textures dynamiques tout en fonctionnant dans des délais raisonnables.Enfin, nous combinons les méthodes de segmentation des objets vidéo et d’inpainting vidéo dans un système unifié pour supprimer les objets non souhaités dans les vidéos. A notre connaissance, il s'agit du premier système de ce type. Dans notre système, l'utilisateur n'a qu'à délimiter approximativement dans le premier cadre les objets à modifier. Ce processus d'annotation est facilité par l'aide de superpixels. Ensuite, ces annotations sont affinées et propagées dans la vidéo par la méthode de segmentation des objets vidéo. Un ou plusieurs objets peuvent ensuite être supprimés automatiquement à l’aide de nos méthodes d’inpainting vidéo. Il en résulte un outil de montage vidéo informatique flexible, avec de nombreuses applications potentielles, allant de la suppression de la foule à la correction de scènes non physiques
Nowadays, the rapid increase of video creates a massive demand for video-based editing applications. In this dissertation, we solve several problems relating to video post-processing and focus on objects removal application in video. To complete this task, we divided it into two problems: (1) A video objects segmentation step to select which objects to remove and (2) a video inpainting step to filling the damaged regions.For the video segmentation problem, we design a system which is suitable for object removal applications with different requirements in terms of accuracy and efficiency. Our approach relies on the combination of Convolutional Neural Networks (CNNs) for segmentation and the classical mask tracking method. In particular, we adopt the segmentation networks for image case and apply them to video case by performing frame-by-frame segmentation. By exploiting both offline and online training with first frame annotation only, the networks are able to produce highly accurate video object segmentation. Besides, we propose a mask tracking module to ensure temporal continuity and a mask linking module to ensure the identity coherence across frames. Moreover, we introduce a simple way to learn the dilation layer in the mask, which helps us create suitable masks for video objects removal application.For the video inpainting problem, we divide our work into two categories base on the type of background. In particular, we present a simple motion-guided pixel propagation method to deal with static background cases. We show that the problem of objects removal with a static background can be solved efficiently using a simple motion-based technique. To deal with dynamic background, we introduce video inpainting method by optimization a global patch-based energy function. To increase the speed of the algorithm, we proposed a parallel extension of the 3D PatchMatch algorithm. To improve accuracy, we systematically incorporate the optical flow in the overall process. We end up with a video inpainting method which is able to reconstruct moving objects as well as reproduce dynamic textures while running in a reasonable time.Finally, we combine the video objects segmentation and video inpainting methods into a unified system to removes undesired objects in videos. To the best of our knowledge, this is the first system of this kind. In our system, the user only needs to approximately delimit in the first frame the objects to be edited. These annotation process is facilitated by the help of superpixels. Then, these annotations are refined and propagated through the video by the video objects segmentation method. One or several objects can then be removed automatically using our video inpainting methods. This results in a flexible computational video editing tool, with numerous potential applications, ranging from crowd suppression to unphysical scenes correction
33

Hasnat, Md Abul. "Unsupervised 3D image clustering and extension to joint color and depth segmentation". Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4013/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'accès aux séquences d'images 3D s'est aujourd'hui démocratisé, grâce aux récentes avancées dans le développement des capteurs de profondeur ainsi que des méthodes permettant de manipuler des informations 3D à partir d'images 2D. De ce fait, il y a une attente importante de la part de la communauté scientifique de la vision par ordinateur dans l'intégration de l'information 3D. En effet, des travaux de recherche ont montré que les performances de certaines applications pouvaient être améliorées en intégrant l'information 3D. Cependant, il reste des problèmes à résoudre pour l'analyse et la segmentation de scènes intérieures comme (a) comment l'information 3D peut-elle être exploitée au mieux ? et (b) quelle est la meilleure manière de prendre en compte de manière conjointe les informations couleur et 3D ? Nous abordons ces deux questions dans cette thèse et nous proposons de nouvelles méthodes non supervisées pour la classification d'images 3D et la segmentation prenant en compte de manière conjointe les informations de couleur et de profondeur. A cet effet, nous formulons l'hypothèse que les normales aux surfaces dans les images 3D sont des éléments à prendre en compte pour leur analyse, et leurs distributions sont modélisables à l'aide de lois de mélange. Nous utilisons la méthode dite « Bregman Soft Clustering » afin d'être efficace d'un point de vue calculatoire. De plus, nous étudions plusieurs lois de probabilités permettant de modéliser les distributions de directions : la loi de von Mises-Fisher et la loi de Watson. Les méthodes de classification « basées modèles » proposées sont ensuite validées en utilisant des données de synthèse puis nous montrons leur intérêt pour l'analyse des images 3D (ou de profondeur). Une nouvelle méthode de segmentation d'images couleur et profondeur, appelées aussi images RGB-D, exploitant conjointement la couleur, la position 3D, et la normale locale est alors développée par extension des précédentes méthodes et en introduisant une méthode statistique de fusion de régions « planes » à l'aide d'un graphe. Les résultats montrent que la méthode proposée donne des résultats au moins comparables aux méthodes de l'état de l'art tout en demandant moins de temps de calcul. De plus, elle ouvre des perspectives nouvelles pour la fusion non supervisée des informations de couleur et de géométrie. Nous sommes convaincus que les méthodes proposées dans cette thèse pourront être utilisées pour la classification d'autres types de données comme la parole, les données d'expression en génétique, etc. Elles devraient aussi permettre la réalisation de tâches complexes comme l'analyse conjointe de données contenant des images et de la parole
Access to the 3D images at a reasonable frame rate is widespread now, thanks to the recent advances in low cost depth sensors as well as the efficient methods to compute 3D from 2D images. As a consequence, it is highly demanding to enhance the capability of existing computer vision applications by incorporating 3D information. Indeed, it has been demonstrated in numerous researches that the accuracy of different tasks increases by including 3D information as an additional feature. However, for the task of indoor scene analysis and segmentation, it remains several important issues, such as: (a) how the 3D information itself can be exploited? and (b) what is the best way to fuse color and 3D in an unsupervised manner? In this thesis, we address these issues and propose novel unsupervised methods for 3D image clustering and joint color and depth image segmentation. To this aim, we consider image normals as the prominent feature from 3D image and cluster them with methods based on finite statistical mixture models. We consider Bregman Soft Clustering method to ensure computationally efficient clustering. Moreover, we exploit several probability distributions from directional statistics, such as the von Mises-Fisher distribution and the Watson distribution. By combining these, we propose novel Model Based Clustering methods. We empirically validate these methods using synthetic data and then demonstrate their application for 3D/depth image analysis. Afterward, we extend these methods to segment synchronized 3D and color image, also called RGB-D image. To this aim, first we propose a statistical image generation model for RGB-D image. Then, we propose novel RGB-D segmentation method using a joint color-spatial-axial clustering and a statistical planar region merging method. Results show that, the proposed method is comparable with the state of the art methods and requires less computation time. Moreover, it opens interesting perspectives to fuse color and geometry in an unsupervised manner. We believe that the methods proposed in this thesis are equally applicable and extendable for clustering different types of data, such as speech, gene expressions, etc. Moreover, they can be used for complex tasks, such as joint image-speech data analysis
34

Nait-Chabane, Ahmed. "Segmentation invariante en rasance des images sonar latéral par une approche neuronale compétitive". Phd thesis, Université de Bretagne occidentale - Brest, 2013. http://tel.archives-ouvertes.fr/tel-00968199.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un sonar latéral de cartographie enregistre les signaux qui ont été rétrodiffusés par le fond marin sur une large fauchée. Les signaux sont ainsi révélateurs de l'interaction entre l'onde acoustique émise et le fond de la mer pour une large plage de variation de l'angle de rasance. L'analyse des statistiques de ces signaux rétrodiffusés montre une dépendance à ces angles de rasance, ce qui pénalise fortement la segmentation des images en régions homogènes. Pour améliorer cette segmentation, l'approche classique consiste à corriger les artefacts dus à la formation de l'image sonar (géométrie d'acquisition, gains variables, etc.) en considérant un fond marin plat et en estimant des lois physiques (Lambert, Jackson, etc.) ou des modèles empiriques. L'approche choisie dans ce travail propose de diviser l'image sonar en bandes dans le sens de la portée ; la largeur de ces bandes étant suffisamment faible afin que l'analyse statistique de la rétrodiffusion puisse être considérée indépendante de l'angle de rasance. Deux types d'analyse de texture sont utilisés sur chaque bande de l'image. La première technique est basée sur l'estimation d'une matrice des cooccurrences et de différents attributs d'Haralick. Le deuxième type d'analyse est l'estimation d'attributs spectraux. La bande centrale localisée à la moitié de la portée du sonar est segmentée en premier par un réseau de neurones compétitifs basé sur l'algorithme SOFM (Self-Organizing Feature Maps) de Kohonen. Ensuite, la segmentation est réalisée successivement sur les bandes adjacentes, jusqu'aux limites basse et haute de la portée sonar. A partir des connaissances acquises sur la segmentation de cette première bande, le classifieur adapte sa segmentation aux bandes voisines. Cette nouvelle méthode de segmentation est évaluée sur des données réelles acquises par le sonar latéral Klein 5000. Les performances de segmentation de l'algorithme proposé sont comparées avec celles obtenues par des techniques classiques.
35

Faucheux, Cyrille. "Segmentation supervisée d'images texturées par régularisation de graphes". Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4050/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à un récent algorithme de segmentation d’images basé sur un processus de régularisation de graphes. L’objectif d’un tel algorithme est de calculer une fonction indicatrice de la segmentation qui satisfait un critère de régularité ainsi qu’un critère d’attache aux données. La particularité de cette approche est de représenter les images à l’aide de graphes de similarité. Ceux-ci permettent d’établir des relations entre des pixels non-adjacents, et ainsi de procéder à un traitement non-local des images. Afin d’en améliorer la précision, nous combinons cet algorithme à une seconde approche non-locale : des caractéristiques de textures. Un nouveau terme d’attache aux données est dans un premier temps développé. Inspiré des travaux de Chan et Vese, celui-ci permet d’évaluer l’homogénéité d’un ensemble de caractéristiques de textures. Dans un second temps, nous déléguons le calcul de l’attache aux données à un classificateur supervisé. Entrainé à reconnaitre certaines classes de textures, ce classificateur permet d’identifier les caractéristiques les plus pertinentes, et ainsi de fournir une modélisation plus aboutie du problème. Cette seconde approche permet par ailleurs une segmentation multiclasse. Ces deux méthodes ont été appliquées à la segmentation d’images texturées 2D et 3D
In this thesis, we improve a recent image segmentation algorithm based on a graph regularization process. The goal of this method is to compute an indicator function that satisfies a regularity and a fidelity criteria. Its particularity is to represent images with similarity graphs. This data structure allows relations to be established between similar pixels, leading to non-local processing of the data. In order to improve this approach, combine it with another non-local one: the texture features. Two solutions are developped, both based on Haralick features. In the first one, we propose a new fidelity term which is based on the work of Chan and Vese and is able to evaluate the homogeneity of texture features. In the second method, we propose to replace the fidelity criteria by the output of a supervised classifier. Trained to recognize several textures, the classifier is able to produce a better modelization of the problem by identifying the most relevant texture features. This method is also extended to multiclass segmentation problems. Both are applied to 2D and 3D textured images
36

Le, Hégarat Sylvie. "Classification non supervisée d'images SAR polarimétriques". Paris, ENST, 1996. http://www.theses.fr/1996ENST0024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le cadre des travaux menés en télédétection pour le suifi et la discrimination des régions naturelles. Par rapport aux instruments optiques, les systèmes radar permettent d'acquérir des informations complémentaires. Or, l'analyse de l'information contenue dans le signal, et l'étude des caractéristiques physiques des régions imagées nécessite la reconnaissance, sur l'image, des différentes catégories de cibles, présentant différentes propriétés de rétrodiffusion. Le but de la classification est alors de fournir des images où l'information est résumée et qui sont donc plus lisibles (notamment sans speckle). Le travail effectué a porté sur le développement d'algorithmes de classification appliqués aux images SAR polarimétriques, la validation des méthodes et des algorithmes proposés, ainsi que l'étude de leur robustesse. Plus précisément, nous nous sommes intéressés aux méthodes non supervisées pour leurs avantages suivants : caractère automatique, possibilité de séparer et d'estimer les caractéristiques de classes inconnues a priori, et surtout obtention de résultats correspondant à l'information réellement présente dans l'image (c'est-à-dire, en particulier, non biaisés par des informations extérieures introduites a priori). Outre le choix d'un vecteur caractéristique (adapté aux images SAR polarimétriques dans notre cas), la mise oeuvre de méthodes de classification non supervisées suppose la définition d'un modèle mathématique de l'image, pour lequel nous avons distingué deux cas : • celui de données «homogènes», c'est-à-dire pour lesquelles nous avons pu définir une même loi de distribution conditionnellement aux classes, et qui fut le cas des données monobandes. Dans le cas de images SAR, le critère de robustesse des estimateurs (de la classification non supervisée) est d'autant plus crucial que la présence de speckle nuit à la qualité de ces estimateurs. L'alborithme préconisé est alors le suivant : estimation des caractéristiques des classes par le fuzzy c-means, puis classification de l'image selon le Maximum A Posteriori. Cet algorithme a ensuite été appliqué au problème du choix de filtres de speckle utilisés en prétraitement de l'image, et au problème de la détermination des fréquences et des polarisations optimales pour la détection des cultures, et de la quantification de l'apport d'information dû à la prise en compte de termes supplémentaires. • celui de données hétérogènes (non modélisables par une même loi de distribution), telles que les images fournies par différents capteurs (multibande radar, optique). Tout d'abord, la complémentarité des images SAR multifréquences et optique-radar a été étudiée. Pour cela, la mesure de redondance définie par Shannon a été appliquée au niveau des classes, ce qui a permis de prendre en compte à la fois l'information radiométrique et celle spatiale. Ensuite, un algorithme de fusion de données, non supervisé, fondé sur la théorie des croyances de Dempster-Shafer a été proposé. Ses performances vis-à-vis de méthodes de fusion simples ont été quantifiées, et il a été validé sur plusieurs jeux de données, correspondant à différents sites (Orgeval, France, Feltwell, Royaume Uni, la Bretagne), et différents capteurs radar ou optiques (AirSAR, SIR-C, Thematic Mapper Simulator, NOAA-AVHRR). Le travail de thèse représente donc une contribution au développement de méthodes d'analyse des données SAR polarimétriques monobandes, multibandes , ou utilisées en synergie avec des données visible/infrarouge.
37

Achard, Catherine. "Segmentation en régions non-supervisée par relaxation markovienne". Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF21820.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce memoire aborde le probleme important de la segmentation non supervisee d'images de luminance. Une importante etude bibliographique est a la base du choix de l'utilisation de techniques de relaxation markovienne. Une des contributions de l'etude consiste a diminuer considerablement les temps de calcul mis pour obtenir les segmentations, tout en n'alterant pas la qualite des resultats de celles-ci. L'approche developpee est de type division-fusion. L'etape de division permet de diminuer de maniere importante le nombre d'entites presentes dans le processus de fusion et, par la suite, les temps de calcul. La methode introduire pour la division est originale ; elle est basee sur l'extraction de statistiques d'ordre deux a partir des matrices de cooccurence. L'etude menee dans ce memoire montre l'avantage de ces statistiques par rapport a celles, d'ordre un, extrites des histogrammes de niveaux de gris. Le second point aborde dans ce rapport concerne la fusion. Une originalite de la methode reside dans la definition des parametres de texture sur les regions issues de la division. Ceux-ci permettent de bien caracteriser ces regions. La fusion est alors realisee par relaxation markovienne a partir du graphe d'adjacence irregulier de regions issues de la division. De nombreuses contributions originales sont amenees afin d'estimer les hyper-parametres du systeme. A ce niveau, plusieurs resultats de segmentation sur differents types d'images reelles sont presentes afin de valider la methode. Une etude comparative sur les differentes strategies d'utilisation des relaxations markoviennes est alors menee, de maniere rigoureuse, sur des images de synthese. Cette comparaison est effectuee aussi bien du point de vue qualite des resultats que du point de vue cout algorithmique. Des conclusions interessantes en decoulent
38

Goubet, Étienne. "Contrôle non destructif par analyse supervisée d'images 3D ultrasonores". Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
39

Lanchantin, Pierre. "Chaînes de Markov triplets et segmentation non supervisée de signaux". Evry, Institut national des télécommunications, 2006. http://www.theses.fr/2006TELE0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est de proposer des méthodes originales de segmentation non supervisées de signaux et d'images fondées sur les modèles de Markov triplets et couples partiellement de Markov. Nous décrivons dans un premier temps les différents modèles, de généralités croissantes et nous développons les algorithmes d'inférence et d'estimation des paramètres dans le cas de processus monodimensionnels ( chaînes). Dans un deuxième temps, nous proposons et étudions des cas particuliers de chaînes triplets partiellement de Markov en commençant par un modèle de chaînes couples partiellement de Markov pour la segmentation de processus cachés. Puis, nous proposons un modèle de chaînes triplets adapté à la segmentation de processus cachés non stationnaires. Nous étudions également les possibilités d'extension de modèles probabilistes classiques ( chaînes et arbres) à un modèle " évidentiel" avec la loi à posteriori du processus caché par la fusion de Dempster-Shafer et à un modèle " flou" dans lequel la fonction d'appartenance aux classes est floue
The aim of this thesis is to propose original methods of unsupervised signal and image segmentation , based on triplet Markov and partially pairwise Markov models. We first describe different models with increasing generality and develop inference and parameters estimation algorithms in the monodimensional case ( chains). Then we propose and study particular cases of triplet partially Markov chains, starting with a model of pairwise partially Markov chains to the segmentation of centured gaussian processes with long correlation noise. The segmentation of centured gaussian processes with long correlation noise. Finally, we propose a triplet Markov chains model adapted to the segmentation of non stationary hidden processes. We also study the extension possibilites of classical probabilistic models ( chains and trees) in an evidential model, where the posterior hidden process distribution is given by the Dempster-Shafer fusion and in a "fuzzy "model in which the mebership function is fuzzy
40

Khemiri, Houssemeddine. "Approche générique appliquée à l'indexation audio par modélisation non supervisée". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0055/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio
The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing
41

Degans, Aude. "Approche non supervisée de l'analyse automatique du sommeil : comparaison d'algorithmes de segmentation". Troyes, 2006. http://www.theses.fr/2006TROY0014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre travail s’inscrit dans l’analyse automatique du sommeil. Depuis 40 ans, les règles de classification en stades de sommeil établies par Rechtschaffen et Kales s’imposent comme la référence internationale dans l’analyse du sommeil. Ces règles, bien que procurant une information compacte sur le profil du sommeil, le traitent de façon discrète et en ignorent la microstructure. Des algorithmes d’analyse automatique du sommeil ont alors émergé proposant des paramètres reflétant la dynamique du processus dans sa continuité. Toutefois, certains algorithmes tels que l’analyse spectrale ont été développés pour être appliqués à des signaux stationnaires, ainsi, en les appliquant aux signaux EEG, on occulte la nature pourtant fortement non stationnaire de ces signaux. C’est pourquoi nous nous sommes intéressés aux algorithmes de segmentation qui permettent de décomposer le signal en segments stationnaires. Notre étude bibliographique nous a permis d’identifier les différentes méthodes de segmentation et de porter notre choix, en conséquence, sur des méthodes de segmentation adaptative non paramétrique. Le mode non supervisé ne permet pas d’optimiser un critère de performance ni d’identifier les non détections ou les fausses alarmes. Nous avons donc développé une méthodologie permettant de quantifier la « corrélation » des algorithmes que nous avons sélectionnés, après avoir défini la notion de détection commune. La problématique est alors de maximiser l’accord entre les algorithmes en optimisant les paramètres dont ils dépendent
Our work deals with automatic sleep analysis. For 40 years, the sleep staging rules proposed by Rechstchaffen and Kales remained the international reference in sleep analysis. Despite the compact profile of sleep they bring, they observe it as a discrete process and do not care about the microstructure. Algorithms for automatic sleep staging emerged and some researchers proposed new parameters that reflect the continuity and the dynamics of the sleep process. By some of them (such as spectral analysis) were developed to be applied on stationary signals. Consequently, applying them on EEG signals occults the high non-stationary character of these signals. That is the reason why we focused our work on (adaptive non-parametric) segmentation algorithms which enable to decompose the signal into stationary segments. The unsupervised approach does not allow to optimize a performance criterion or to identify non detections of false alarms. Consequently we developed a methodology for quantifying a correlation measure between the algorithms we selected and for which we defined the concept of common detection. The problematic is then to maximize the agreement between the algorithms after and optimization process of their parameters
42

Khemiri, Houssemeddine. "Approche générique appliquée à l'indexation audio par modélisation non supervisée". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio
The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing
43

Jaritz, Maximilian. "2D-3D scene understanding for autonomous driving". Thesis, Université Paris sciences et lettres, 2020. https://pastel.archives-ouvertes.fr/tel-02921424.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous abordons les défis de la rareté des annotations et la fusion de données hétérogènes tels que les nuages de points 3D et images 2D. D’abord, nous adoptons une stratégie de conduite de bout en bout où un réseau de neurones est entraîné pour directement traduire l'entrée capteur (image caméra) en contrôles-commandes, ce qui rend cette approche indépendante des annotations dans le domaine visuel. Nous utilisons l’apprentissage par renforcement profond où l'algorithme apprend de la récompense, obtenue par interaction avec un simulateur réaliste. Nous proposons de nouvelles stratégies d'entraînement et fonctions de récompense pour une meilleure conduite et une convergence plus rapide. Cependant, le temps d’apprentissage reste élevé. C'est pourquoi nous nous concentrons sur la perception dans le reste de cette thèse pour étudier la fusion de nuage de points et d'images. Nous proposons deux méthodes différentes pour la fusion 2D-3D. Premièrement, nous projetons des nuages de points LiDAR 3D dans l’espace image 2D, résultant en des cartes de profondeur éparses. Nous proposons une nouvelle architecture encodeur-décodeur qui fusionne les informations de l’image et la profondeur pour la tâche de complétion de carte de profondeur, améliorant ainsi la résolution du nuage de points projeté dans l'espace image. Deuxièmement, nous fusionnons directement dans l'espace 3D pour éviter la perte d'informations dû à la projection. Pour cela, nous calculons les caractéristiques d’image issues de plusieurs vues avec un CNN 2D, puis nous les projetons dans un nuage de points 3D global pour les fusionner avec l’information 3D. Par la suite, ce nuage de point enrichi sert d'entrée à un réseau "point-based" dont la tâche est l'inférence de la sémantique 3D par point. Sur la base de ce travail, nous introduisons la nouvelle tâche d'adaptation de domaine non supervisée inter-modalités où on a accès à des données multi-capteurs dans une base de données source annotée et une base cible non annotée. Nous proposons une méthode d’apprentissage inter-modalités 2D-3D via une imitation mutuelle entre les réseaux d'images et de nuages de points pour résoudre l’écart de domaine source-cible. Nous montrons en outre que notre méthode est complémentaire à la technique unimodale existante dite de pseudo-labeling
In this thesis, we address the challenges of label scarcity and fusion of heterogeneous 3D point clouds and 2D images. We adopt the strategy of end-to-end race driving where a neural network is trained to directly map sensor input (camera image) to control output, which makes this strategy independent from annotations in the visual domain. We employ deep reinforcement learning where the algorithm learns from reward by interaction with a realistic simulator. We propose new training strategies and reward functions for better driving and faster convergence. However, training time is still very long which is why we focus on perception to study point cloud and image fusion in the remainder of this thesis. We propose two different methods for 2D-3D fusion. First, we project 3D LiDAR point clouds into 2D image space, resulting in sparse depth maps. We propose a novel encoder-decoder architecture to fuse dense RGB and sparse depth for the task of depth completion that enhances point cloud resolution to image level. Second, we fuse directly in 3D space to prevent information loss through projection. Therefore, we compute image features with a 2D CNN of multiple views and then lift them all to a global 3D point cloud for fusion, followed by a point-based network to predict 3D semantic labels. Building on this work, we introduce the more difficult novel task of cross-modal unsupervised domain adaptation, where one is provided with multi-modal data in a labeled source and an unlabeled target dataset. We propose to perform 2D-3D cross-modal learning via mutual mimicking between image and point cloud networks to address the source-target domain shift. We further showcase that our method is complementary to the existing uni-modal technique of pseudo-labeling
44

Nasser, Khalafallah Mahmoud Lamees. "A dictionary-based denoising method toward a robust segmentation of noisy and densely packed nuclei in 3D biological microscopy images". Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS283.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les cellules sont les éléments constitutifs de base de tout organisme vivant. Tous les organismes vivants partagent des processus vitaux tels que croissance, développement, mouvement, nutrition, excrétion, reproduction, respiration et réaction à l’environnement. En biologie cellulaire, comprendre la structure et fonction des cellules est essentielle pour développer et tester de nouveaux médicaments. Par ailleurs, cela aide aussi à l’étude du développement embryonnaire. Enfin, cela permet aux chercheurs de mieux comprendre les effets des mutations et de diverses maladies. La vidéo-microscopie (Time Lapse Fluorescence Microscopie) est l’une des techniques d’imagerie les plus utilisées afin de quantifier diverses caractéristiques des processus cellulaires, à savoir la survie, la prolifération, la migration ou la différenciation cellulaire. En vidéo-microscopie, non seulement les informations spatiales sont disponibles, mais aussi les informations temporelles en réitérant l’acquisition de l’échantillon, et enfin les informations spectrales, ce qui génère des données dites « cinq dimensions » (X, Y, Z + temps + canal). En règle générale, les jeux de données générés consistent en plusieurs (centaines ou milliers) d’images, chacune contenant des centaines ou milliers d’objets à analyser. Pour effectuer une quantification précise et à haut débit des processus cellulaires, les étapes de segmentation et de suivi des noyaux cellulaires doivent être effectuées de manière automatisée. Cependant, la segmentation et le suivi des noyaux sont des tâches difficiles dû notamment au bruit intrinsèque dans les images, à l’inhomogénéité de l’intensité, au changement de forme des noyaux ainsi qu’à un faible contraste des noyaux. Bien que plusieurs approches de segmentation des noyaux aient été rapportées dans la littérature, le fait de traiter le bruit intrinsèque reste la partie la plus difficile de tout algorithme de segmentation. Nous proposons un nouvel algorithme de débruitage 3D, basé sur l’apprentissage d’un dictionnaire non supervisé et une représentation parcimonieuse, qui à la fois améliore la visualisation des noyaux très peu contrastés et bruités, mais aussi détecte simultanément la position de ces noyaux avec précision. De plus, notre méthode possède un nombre limité de paramètres, un seul étant critique, à savoir la taille approximative des objets à traiter. Le cadre de la méthode proposée comprend le débruitage d’images, la détection des noyaux et leur segmentation. Dans l’étape de débruitage, un dictionnaire initial est construit en sélectionnant des régions (patches) aléatoires dans l’image originale, puis une technique itérative est implémentée pour mettre à jour ce dictionnaire afin d’obtenir un dictionnaire dont les éléments mis à jour présentent un meilleur contraste. Ensuite, une carte de détection, basée sur le calcul des coefficients du dictionnaire utilisés pour débruiter l’image, est utilisée pour détecter le centre approximatif des noyaux qui serviront de marqueurs pour la segmentation. Ensuite, une approche basée sur le seuillage est proposée pour obtenir le masque de segmentation des noyaux. Finalement, une approche de segmentation par partage des eaux contrôlée par les marqueurs est utilisée pour obtenir le résultat final de segmentation des noyaux. Nous avons créé des images synthétiques 3D afin d’étudier l’effet des paramètres de notre méthode sur la détection et la segmentation des noyaux, et pour comprendre le mécanisme global de sélection et de réglage de ces paramètres significatifs sur différents jeux de données
Cells are the basic building blocks of all living organisms. All living organisms share life processes such as growth and development, movement, nutrition, excretion, reproduction, respiration and response to the environment. In cell biology research, understanding cells structure and function is essential for developing and testing new drugs. In addition, cell biology research provides a powerful tool to study embryo development. Furthermore, it helps the scientific research community to understand the effects of mutations and various diseases. Time-Lapse Fluorescence Microscopy (TLFM) is one of the most appreciated imaging techniques which can be used in live-cell imaging experiments to quantify various characteristics of cellular processes, i.e., cell survival, proliferation, migration, and differentiation. In TLFM imaging, not only spatial information is acquired, but also temporal information obtained by repeating imaging of a labeled sample at specific time points, as well as spectral information, that produces up to five-dimensional (X, Y, Z + Time + Channel) images. Typically, the generated datasets consist of several (hundreds or thousands) images, each containing hundreds to thousands of objects to be analyzed. To perform high-throughput quantification of cellular processes, nuclei segmentation and tracking should be performed in an automated manner. Nevertheless, nuclei segmentation and tracking are challenging tasks due to embedded noise, intensity inhomogeneity, shape variation as well as a weak boundary of nuclei. Although several nuclei segmentation approaches have been reported in the literature, dealing with embedded noise remains the most challenging part of any segmentation algorithm. We propose a novel 3D denoising algorithm, based on unsupervised dictionary learning and sparse representation, that can both enhance very faint and noisy nuclei, in addition, it simultaneously detects nuclei position accurately. Furthermore, our method is based on a limited number of parameters, with only one being critical, which is the approximate size of the objects of interest. The framework of the proposed method comprises image denoising, nuclei detection, and segmentation. In the denoising step, an initial dictionary is constructed by selecting random patches from the raw image then an iterative technique is implemented to update the dictionary and obtain the final one which is less noisy. Next, a detection map, based on the dictionary coefficients used to denoise the image, is used to detect marker points. Afterward, a thresholding-based approach is proposed to get the segmentation mask. Finally, a marker-controlled watershed approach is used to get the final nuclei segmentation result. We generate 3D synthetic images to study the effect of the few parameters of our method on cell nuclei detection and segmentation, and to understand the overall mechanism for selecting and tuning the significant parameters of the several datasets. These synthetic images have low contrast and low signal to noise ratio. Furthermore, they include touching spheres where these conditions simulate the same characteristics exist in the real datasets. The proposed framework shows that integrating our denoising method along with classical segmentation method works properly in the context of the most challenging cases. To evaluate the performance of the proposed method, two datasets from the cell tracking challenge are extensively tested. Across all datasets, the proposed method achieved very promising results with 96.96% recall for the C.elegans dataset. Besides, in the Drosophila dataset, our method achieved very high recall (99.3%)
45

Huck, Alexis. "Analyse non-supervisée d’images hyperspectrales : démixage linéaire et détection d’anomalies". Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse explore deux axes de recherche pour l'analyse non-supervisée d'Images HyperSpectrales (HSIs). Sous l'hypothèse du modèle de mélange linéaire de spectres, nous abordons d'abord la problématique du démixage par Factorisation en Matrices Non-négatives (NMF). D'une part, nous proposons de régulariser le problème en intégrant de l'information a priori spectrale et spatiale judicieuse, spécifique aux HSIs. D'autre part, nous proposons un estimateur du pas optimal pour la descente de gradient projeté. Nous montrons ainsi que, correctement régularisée, la NMF est un outil pertinent pour le démixage d'HSIs. Puis, nous explorons la problématique de la détection d'anomalies. Nous proposons un algorithme de Poursuite de Composantes Anormales (PCA), basé simultanément sur la poursuite de projections et sur un modèle probabiliste avec test d'hypothèses. Ainsi, la PCA détecte les anomalies à taux de fausse alarme constant et les discrimine en classes spectralement homogènes
This thesis focusses on two research fields regarding unsupervised analysis of hyperspectral images (HSIs). Under the assumptions of the linear spectral mixing model, the formalism of Non-Negative Matrix Factorization is investigated for unmixing purposes. We propose judicious spectral and spatial a priori knowledge to regularize the problem. In addition, we propose an estimator for the projected gradient optimal step-size. Thus, suitably regularized NMF is shown to be a relevant approach to unmix HSIs. Then, the problem of anomaly detection is considered. We propose an algorithm for Anomalous Component Pursuit (ACP), simultaneously based on projection pursuit and on a probabilistic model and hypothesis testing. ACP detects the anomalies with a constant false alarm rate and discriminates them into spectrally homogeneous classes
46

El, Khoury Elie. "Indexation vidéo non-supervisée basée sur la caractérisation des personnes". Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00515424.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse consiste à proposer une méthode de caractérisation non-supervisée des intervenants dans les documents audiovisuels, en exploitant des données liées à leur apparence physique et à leur voix. De manière générale, les méthodes d'identification automatique, que ce soit en vidéo ou en audio, nécessitent une quantité importante de connaissances a priori sur le contenu. Dans ce travail, le but est d'étudier les deux modes de façon corrélée et d'exploiter leur propriété respective de manière collaborative et robuste, afin de produire un résultat fiable aussi indépendant que possible de toute connaissance a priori. Plus particulièrement, nous avons étudié les caractéristiques du flux audio et nous avons proposé plusieurs méthodes pour la segmentation et le regroupement en locuteurs que nous avons évaluées dans le cadre d'une campagne d'évaluation. Ensuite, nous avons mené une étude approfondie sur les descripteurs visuels (visage, costume) qui nous ont servis à proposer de nouvelles approches pour la détection, le suivi et le regroupement des personnes. Enfin, le travail s'est focalisé sur la fusion des données audio et vidéo en proposant une approche basée sur le calcul d'une matrice de cooccurrence qui nous a permis d'établir une association entre l'index audio et l'index vidéo et d'effectuer leur correction. Nous pouvons ainsi produire un modèle audiovisuel dynamique des intervenants.
47

Salzenstein, Fabien. "Modele markovien flou et segmentation statistique non suupervisee d'images". Rennes 1, 1996. http://www.theses.fr/1996REN10194.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La premiere partie de ce memoire traite de la comparaison, en segmentation statistique non supervisee d'images, des methodes locales et des methodes globales basees sur l'hypothese des champs ou des chaines de markov. Nous cherchons une solution automatique au probleme du choix de la methode la mieux adaptee aux donnees en presence, a partir d'un ensemble de parametres caracterisant l'image observee: correlation moyenne du bruit, homogeneite, forme du bruit gaussien. L'algorithme de choix est valide par des simulations effectuees sur des images de synthese. Pour un nombre de classes donne, il parait possible de departager les algorithmes en concurrence, la forme du bruit exercant peu d'influence sur la decision finale. Un deuxieme volet de notre etude est consacre a la segmentation statistique globale non supervisee, s'appuyant sur un recent modele de champs de markov caches flous, qui permet d'inclure dans une meme image des regions dures et des regions floues. L'estimateur des parametres de lois combine une procedure du gradient stochastique et l'algorithme ice, adapte au cas de donnees incompletes. Selon la quantite de flou presente dans l'image verite-terrain, une telle approche presente un interet non negligeable, et offre un potentiel superieur a son homologue dure, base sur les champs de markov. Certaines images reelles se pretent bien au cas de deux classes thematiques, mais nous avons montre la possibilite d'extension de ce modele a un nombre de classes quelconque
48

Chaari, Anis. "Nouvelle approche d'identification dans les bases de données biométriques basée sur une classification non supervisée". Phd thesis, Université d'Evry-Val d'Essonne, 2009. http://tel.archives-ouvertes.fr/tel-00549395.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux effectués dans le cadre de cette thèse portent sur l'identification automatique de visages dans des bases de données d'images numériques. L'objectif est de simplifier le déroulement de l'identification biométrique qui consiste à la recherche de l'identité requête parmi l'ensemble des individus de la base de données préenregistrée, appelée aussi galerie. En effet, le schéma d'identification classique est complexe et très coûteux notamment dans le cas de grandes bases de données biométriques. Le processus original que nous proposons ici a pour objectif de réduire la complexité et d'améliorer les performances en terme de temps de calcul et de taux d'identification. Dans ce cadre biométrique, nous avons proposé une étape de classification non supervisée ou clustering des visages pour partitionner la base d'images en plusieurs sous ensembles cohérents et bien discriminés. Pour ce faire, l'algorithme de clustering vise à extraire, pour chaque visage, un ensemble de descripteurs, appelé signature, qui lui soit spécifique. Trois techniques de représentation faciales ont été développées dans le but d'extraire des informations différentes et complémentaires décrivant le visage humain : deux méthodes factorielles d'analyse multidimensionnelle et de projection des données (méthodes dites « Eigenfaces » et « Fisherfaces ») ainsi qu'une méthode d'extraction des moments géométriques de Zernike. Sur la base des différentes classes de signatures extraites pour chaque visage plusieurs méthodes de clustering sont mises en compétition afin de dégager la classification optimale qui conduit à une meilleure réduction de la galerie. Les méthodes retenues sont, soit de type « centres mobiles » telles que les K-moyennes et les centres mobiles de Forgy, ou de type « agglomérative » telle que la méthode de BIRCH. Sur la base de la dépendance des partitions générées, ces différentes stratégies classificatoires sont ensuite combinées suivant une architecture parallèle de manière à optimiser la réduction de l'espace de recherche à un sous ensemble de la base de données. Les clusters retenus in fine étant ceux pour lesquels la probabilité d'appartenance de l'identité requête est quasi certaine.
49

Becerra, Elcinto Javier. "Contribution à la segmentation supervisée de données volumiques : modèle perceptuel et développement d'outils interactifs d'aide à l'interprétation d'images sismiques". Bordeaux 1, 2006. http://www.theses.fr/2006BOR13328.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire porte sur l'étude et la conception de nouveaux outils d'aide à l'interprétation des images sismiques. L'objectif est de permettre au géologue d'extraire de manière interactive les réseaux de failles tridimensionnelles visibles dans les blocs sismiques. Dans la première partie du manuscrit, nous abordons l'étude des mécanismes perceptifs mis en jeu lors de l'inspection visuelle des données sismiques dans le but de détecter les failles. Cette analyse nous permet de proposer une nouvelle technique de segmentation supervisée, nommée pointé dynamique, qui est présentée dans la deuxième partie du manuscrit. Le mémoire se termine par la présentation de résultats de segmentation obtenus par pointé dynamique.
50

Rousson, Mikaël. "Intégration d'attributs et évolutions de fronts en segmentation d'images". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00327560.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image est une étape primordiale pour la compréhension des images. Une multitude d'études dédiées à ce problème ont été proposées durant les dix dernières années. Des algorithmes efficaces et robustes ont été développés pour diverses applications. Cependant, la plupart d'entre eux introduisent des heuristiques propres au type d'image considéré.
La variété des caractéristiques possibles définissant une région d'intérêt est le principal facteur limitant leur généralisation. Ces critères région peuvent être le niveau de gris, la couleur, la texture, la forme des objets, etc...
Dans cette thèse, nous proposons une formulation générale qui permet d'introduire chacune de ces caractéristiques. Plus précisément, nous considérons l'intensité de l'image, la couleur, la texture, le mouvement et enfin, la connaissance a priori sur la forme des objets à extraire. Dans cette optique, nous obtenons un critère probabiliste à partir d'une formulation Bayésienne du problème de la segmentation d'images. Ensuite, une formulation variationnelle équivalente est introduite et la segmentation la plus probable est finalement obtenue par des techniques d'évolutions de fronts. La représentation par ensembles de niveaux est naturellement introduite pour décrire ces évolutions, tandis que les statistiques régions sont estimées en parallèle. Ce cadre de travail permet de traiter naturellement des images scalaires et vectorielles mais des caractéristiques plus complexes sont considérées par la suite. La texture, le mouvement ainsi que l'a priori sur la forme sont traités successivement. Finalement, nous présentons une extention de notre approche aux images de diffusion à résonance magnétique où des champs de densité de probabilité 3D doivent être considérés.

Vai alla bibliografia