Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Traitement d'images – Techniques numériques – Segmentation bayésienne.

Dissertationen zum Thema „Traitement d'images – Techniques numériques – Segmentation bayésienne“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Traitement d'images – Techniques numériques – Segmentation bayésienne" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Benboudjema, Dalila. „Champs de Markov triplets et segmentation bayésienne non supervisée d'images“. Evry, Institut national des télécommunications, 2005. http://www.theses.fr/2005TELE0009.

Der volle Inhalt der Quelle
Annotation:
La segmentation non supervisée d’images est parmi les problèmes clé en traitement d’images. Parmi les différents modèles et approches développées, une partie des méthodes statistiques, couramment utilisées, sont fondées sur le modèle par champs de Markov Cachés (CMC). Ce succès est principalement dû à l’aptitude du modèle de prendre en compte des dépendances spatiales des variables aléatoires, même lorsqu’elles sont en très grand nombre, pouvant dépasser le million. Dans un tel modèle le champ caché X est supposé markovien et doit être estimé à partir du champ observé Y. Un tel traitement est possible du fait de la markovianité de X conditionnellement à Y. Ce modèle a été ensuite généralisé aux champs de Markov couples (CMCouples), où l’on suppose directement la markovianité du couple (X,Y ), qui offrent les mêmes possibilités de traitements que les CMC et permettent de mieux modéliser le bruit ce qui permet, en particulier, de mieux prendre en compte l’existence des textures. Par la suite, les CMCouples ont été généralisés aux champs de Markov triplet (CMT), où la loi du couple (X,Y ) est une loi marginale d’un champ de Markov triplet T = (X ,U,Y ) , avec un champ auxiliaire U. L’objet de cette thèse est d’étudier les CMT. Deux variantes originales sont présentées : les champs de Markov évidentiels (CME), permettant la modélisation des incertitudes sur les paramètres ; et les champs de Markov Triplets Adaptés (CMTA), permettant la modélisation des différentes stationnarités de l’image cachée. Pour une segmentation non supervisée, deux méthodes originales d’estimation des paramètres sont proposées. La première est fondée sur le principe du gradient stochastique, et la seconde est fondée sur le principe de l’estimation conditionnelle itérative (ECI) et les moindres carrés. Cette dernière est ensuite généralisée aux cas des images non stationnaires avec du bruit non Gaussien corrélé, et à marginales quelconques. Elle permet de rechercher la forme même des différentes lois marginales en utilisant le système de Pearson, ainsi que d’estimer tous les paramètres du modèle. L’intérêt des différentes méthodes non supervisées obtenues est attesté par des simulations informatiques ainsi que par les premiers traitements des images réelles
Image segmentation is a fundamental and yet difficult task in machine vision. Several models and approaches have been proposed, and the ones which have probably received considerable attention are hidden Markov fields (HMF) models. In such model the hidden field X which is assumed Markovian, must be estimated from the observed –or noisy- field Y. Such processing is possible because the distribution X conditional on the observed process Y remains markovian. This model has been generalized to the Pairwise Markov field (PMF) which offer similar processing and superior modelling capabilities. In this model we assume directly the markovianity of the couple (X,Y ). Afterwards, triplet Markov fields (TMF) which are the generalization of the PMF, have been proposed. In such model the distribution of the couple (X ,Y ) is the marginal distribution of a Markov field T = (X ,U,Y ) , where U is latent process. The aim of this thesis is to study the TMF models. Two original models are presented: the Evidential Markov field (EMF) allowing to model the evidential aspects of the prior information and the adapted triplet Markov field (ATMF), allowing to model the simultaneous presence of different stationarities in the class image. For the unsupervised processing, two original approaches of estimation the model’s parameters have been proposed. The first one is based on the stochastic gradient and the second one is based on the iterative conditional estimation (ICE) and the least square method, as well. The latter, have then been generalized to the non stationary images with non Gaussian correlated noise, which uses the Pearson system to find the natures of margins of the noise, which can vary with the class. Experiments indicate that the new models and related processing algorithms can improve the results obtained with the classical ones
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Quelle, Hans-Christoph. „Segmentation bayesienne non supervisee en imagerie radar“. Rennes 1, 1993. http://www.theses.fr/1993REN10012.

Der volle Inhalt der Quelle
Annotation:
Segmentation bayesienne non supervisee en imagerie radar. La these est consacree a la segmentation statistique non supervisee en imagerie radar. L'accent a ete mis sur les methodes locales, qui au contraire des methodes globales ne necessitent pas l'hypothese d'independance des donnees observees conditionnellement a une realisation du terrain. Dans une premiere partie l'influence du contexte spatial sur l'estimation des parametres utilises par le modele d'image hierarchique et sur la segmentation bayesienne des images d'intensites mono-vue et multi-vues a ete etudie. Ensuite nous avons propose une methode d'estimation adaptative de parametres (asem) base sur l'estimateur sem, permettant la segmentation bayesienne des scenes homogenes, non-stationnaires. Les tests effectues sur des images de synthese et reelles ont montre la superiorite de la segmentation bayesienne utilisant les parametres estimes avec l'asem par rapport a la segmentation utilisant les parametres estimes avec le sem, mais aussi, sous certaines conditions, sur des images de synthese stationnaire. Dans une derniere partie l'idee d'une generalisation du modele d'image hierarchique de kelly et derin est proposee permettant l'adaptation de la probabilite marginale de chaque composant du melange aux differentes regions de l'image
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mignotte, Max. „Segmentation d'images sonar par approche markovienne hiérarchique non supervisée et classification d'ombres portées par modèles statistiques“. Brest, 1998. http://www.theses.fr/1998BRES2017.

Der volle Inhalt der Quelle
Annotation:
Ces dernieres annees, de nombreuses ameliorations ont rendu les sonar haute resolution de plus en plus performants ; zones explorees plus vastes et visualisation des fonds marins et des objets reposant sur ceux-ci sous forme d'images etc en contre partie, la quantite d'informations a sensiblement augmentee et rend aujourd'hui necessaire d'automatiser la detection et la classification de ces objets. Celle-ci est realisee grace a une analyse de la forme de l'ombre qu'ils produisent sur les images sonar. L'automatisation de la phase de classification requiert donc une premiere etape de segmentation. A cette fin, un modele hierarchique markovien utilisant un systeme de voisinage spatial et causal en echelle ainsi qu'une strategie de minimisation multigrille ont ete definis. Le probleme de l'estimation automatique des parametres de ce modele a ete developpe dans le but de definir une segmentation non supervisee. Il comporte l'identification du melange de lois relatif au terme d'attache aux donnees et des parametres de regularisation contextuelle. Nous avons ensuite propose une methode de classification des ombres portees. L'approche adoptee utilise les modeles statistiques et repose sur une formulation bayesienne du probleme. Elle comprend la definition d'une forme prototype a laquelle est appliquees une combinaison de deformations geometriques lineaires. Dans ce cadre, le probleme de la classification d'un objet est equivalent a un probleme d'estimation bayesienne des parametres de deformation du modele. Cette estimation conduit a la minimisation d'une fonction d'energie, realisee par une procedure d'optimisation genetique. Afin d'ameliorer cette classification, un modele statistique pour la classification des fonds en imagerie sonar, utilisant une analyse des formes d'ombres que produit chaque type de fond et un module decision floue, a ete parallelement propose. Des validations importantes sur images sonar synthetiques et reelles sont enfin presentees.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Bricq, Stéphanie. „Segmentation d’images IRM anatomiques par inférence bayésienne multimodale et détection de lésions“. Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/BRICQ_Stephanie_2008.pdf.

Der volle Inhalt der Quelle
Annotation:
L'imagerie médicale fournit un nombre croissant de données. La segmentation automatique est devenue une étape fondamentale pour l'analyse quantitative de ces images dans de nombreuses pathologies cérébrales comme la sclérose en plaques (SEP). Nous avons focalisé notre étude sur la segmentation d'IRM cérébrales. Nous avons d'abord proposé une méthode de segmentation des tissus cérébraux basée sur le modèle des chaînes de Markov cachées, permettant d'inclure l'information a priori apportée par un atlas probabiliste et prenant en compte les principaux artefacts présents sur les images IRM. Nous avons ensuite étendu cette méthode à la détection de lésions SEP grâce à un estimateur robuste. Nous avons également développé une méthode de segmentation d'IRM 3D basée sur les contours actifs statistiques pour raffiner la segmentation des lésions. Les résultats obtenus ont été comparés avec d'autres méthodes de segmentation et avec des segmentations manuelles réalisées par des médecins
Medical imaging provides a growing number of data. Automatic segmentation has become a fundamental step for quantitative analysis of these images in many brain diseases such as multiple sclerosis (MS). We focused our study on brain MRI segmentation and MS lesion detection. At first we proposed a method of brain tissue segmentation based on hidden Markov chains taking into account neighbourhood information. This method can also include prior information provided by a probabilistic atlas and takes into account the artefacts appearing on MR images. Then we extended this method to detect MS lesions thanks to a robust estimator and prior information provided by a probabilistic atlas. We have also developed a 3D MRI segmentation method based on statistical active contours to refine the lesion segmentation. The results were compared with other existing methods of segmentation, and with manual expert segmentations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chapoulie, Alexandre. „Contributions aux méthodes de détection visuelle de fermeture de boucle et de segmentation topologique de l'environnement“. Nice, 2012. http://www.theses.fr/2012NICE4055.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de la localisation globale et, plus largement, dans celui de la Localisation et Cartographie Simultanées, il est nécessaire de pouvoir déterminer si un robot revient dans un endroit déjà visité. Il s’agit du problème de la détection de fermeture de boucle. Dans un cadre de reconnaissance visuelle des lieux, les algorithmes existants permettent une détection en temps-réel, une robustesse face à l’alliasing perceptuel ou encore face à la présence d’objets dynamiques. Ces algorithmes sont souvent sensibles à l’orientation du robot rendant impossible la fermeture de boucle à partir d’un point de vue différent. Pour palier ce problème, des caméras panoramiques ou omnidirectionnelles sont employées. Nous présentons ici une méthode plus générale de représentation de l’environnement sous forme d’une vue sphérique égocentrée. En utilisant les propriétés de cette représentation, nous proposons une méthode de détection de fermeture de boucle satisfaisant, en lu des autres propriétés, une indépendance à l’orientation du robot. Le modèle de l’environnement est souvent un ensemble d’images prises à des instants différents, chaque image représentant un lieu. Afin de grouper ces images en lieux significatifs de l’environnement, des lieux topologiques, les méthodes existantes emploient une notion de covisibilité de l’information entre les lieux. Notre approche repose sur l’exploitation de la structure de l’environnement. Nous définissons ainsi un lieu topologique comme ayant une structure qui ne varie pas, la variation engendrant le changement de lieu. Les variations de structure sont détectées à l’aide d’un algorithme efficace de détection de rupture de modèle
In the context of global localization and, more widely, in Simultaneous Localization and Mapping, it is mandatory to be able to detect if a robust comes to a previously visited place. It is the loop closure detection problem. Algorithms, in visual place recognition, usually allow detection in real-time, are robust to perceptual aliasing or even to dynamic objects. Those algorithms are often sensitive to the robot orientation involving an impossibility to detect a loop closure from a different point of view. In order to alleviate this drawback, panoramic or omnidirectional cameras are often used. We propose a more general representation of the environment with an ego-centric spherical view. Using these representation properties, we elaborate a loop closure detection algorithm that satisfies, in addition to other properties, robot orientation independence. The environment model is often a set of images taken at various moments, each image corresponding to a place. Existing methods cluster those images ion meaning places of the environment, the topological places, using the concept of covisibility of information between places. Our approach relies on the utilization of the environment structure. We hence define a topological place as having a structure which does not change, variation leading to a place change. The structure variations are detected with an efficient change-point detection algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Rousson, Mikaël. „Cue integration and front evolution in image segmentation“. Nice, 2004. http://www.theses.fr/2004NICE4100.

Der volle Inhalt der Quelle
Annotation:
La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image est une étape primordiale pour la compréhension d'images. Une multitude d'études dédiées à ce problème ont été proposées durant les dix dernières années. Cependant, la plupart d'entre eux introduisent des heuristiques propres au type d'image considéré. La variété des caractéristiques possibles définissant une région d'intérêt est le principal facteur limitant leur généralisation. Dans cette thèse, nous proposons une formulation générale qui permet d'introduire chacune de ces caractéristiques. Plus précisément, nous considérons l'intensité de l'image, la couleur, la texture, le mouvement et enfin, la connaissance à priori sur la forme des objets à extraire. Dans cette optique, nous obtenons un critère probabiliste à partir d'une formulation Bayésienne du problème de la segmentation d'images. Ensuite, une formulation variationnelle équivalente est introduite et la segmentation la plus probable est finalement obtenue par des techniques d'évolutions de fronts. La représentation par ensembles de niveaux est naturellement introduite pour décrire ces évolutions, tandis que les statistiques régions sont estimées en parallèle. Ce cadre de travail permet de traiter naturellement des images scalaires et vectorielles mais des caractéristiques plus complexes sont considérées par la suite. La texture, le mouvement ainsi que l'à priori sur la forme sont traités successivement. Finalement, nous présentons une extende notre approche aux images de diffusion à résonance magnétique où des champs de densité de probabilité 3D doivent être considérés
Automatic detection and selection of regions of interest is a key step in image understanding. In the literature, most segmentation approaches are restricted to a particular class of images. This limitation is due to the large variety of cues available to characterize a region of interest. Targeting particular applications, algorithms are centered on the from most relevant cue. The limiting factor to obtain a general algorithm is the large variety of cues available to characterize a region of interest. It can be gray-level, color, texture, shape, etc. . . In this thesis, we propose a general formulation able to deal with each one of these characteristics. Image intensity, color, texture, motion and prior shape knowledge are considered. For this purpose, a probabilistic inference is obtained from a Bayesian formulation of the segmentation problem. Then, reformulated as an energy minimization, the most probable image partition is obtained using front evolution techniques. Level-set functions are naturally introduced to represent the evolving fronts while region statistics are optimized in parallel. This framework can naturally handle scalar and vector-valued smooth images but more complex cues are also integrated. Texture and motion features, as well as prior shape knowledge are successively introduced. Complex medical images are considered in the last part with the case of diffusion magnetic resonance images which gives 3D probability density fields
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Scherrer, Benoit. „Segmentation des tissus et structures sur les IRM cérébrales : agents markoviens locaux et coopératifs et formulation bayésienne“. Grenoble INPG, 2008. https://tel.archives-ouvertes.fr/tel-00361317.

Der volle Inhalt der Quelle
Annotation:
La segmentation des IRM cérébrales est une étape cruciale pour de nombreuses applications, tant dans le domaine clinique que pour les neurosciences. Elle est rendu difficile par les artéfacts inhérents à ce type d'image, leur faible contraste et les importantes variations individuelles qui limitent l'introduction de connaissances a priori. Dans cette thèse nous proposons une nouvelle approche de segmentation des IRM cérébrales dont l'originalité réside (1) dans le couplage de la segmentation des tissus, de la segmentation des structures et de l'intégration de connaissances anatomiques et (2) la volonté de prendre en compte la localité de l'information. La localité est modélisée via un cadre multi-agents : des agents sont distribués dans le volume et réalisent une segmentation markovienne locale. Dans une première approche (LOCUS, Local Cooperative Unified Segmentation) nous proposons des mécanismes intuitifs de coopération et de couplage pour assurer la cohérence des modèles locaux. Les structures sont segmentées via l'intégration de contraintes de localisation floue décrites par des relations spatiales entre structures. Dans une seconde approche (LOCUS-B, LOCUS in a Bayesian framework) nous considérons l'introduction d'un atlas statistique des structures. Nous reformulons le problème dans un cadre bayésien nous permettant une formalisation statistique du couplage et de la coopération. Segmentation des tissus, régularisation des modèles locaux, segmentation des structures et recalage local affine de l'atlas sont alors réalisés de manière couplée dans un cadre EM, chacune des étapes s'améliorant mutuellement. L'évaluation sur des images simulées et réelles montrent les performances de l'approche et en particulier sa robustesse aux artéfacts pour de faibles temps de calculs. Les modèles markoviens locaux distribués et coopératifs apparaissent alors comme une approche prometteuse pour la segmentation d'images médicales
Accurate magnetic resonance brain scan segmentation is critical in a number of clinical and neuroscience applications. This task is challenging due to artifacts, low contrast between tissues and inter-individual variability that inhibit the introduction of a priori knowledge. In this thesis, we propose a new MR brain scan segmentation approach. Unique features of this approach include (1) the coupling of tissue segmentation, structure segmentation and prior knowledge construction, and (2) the consideration of local image properties. Locality is modeled through a multi-agent framework: agents are distributed into the volume and perform a local Markovian segmentation. As an initial approach (LOCUS, Local Cooperative Unified Segmentation), intuitive cooperation and coupling mechanisms are proposed to ensure the consistency of local models. Structures are segmented via the introduction of spatial localization constraints based on fuzzy spatial relations between structures. In a second approach, (LOCUS-B, LOCUS in a Bayesian framework) we consider the introduction of a statistical atlas to describe structures. The problem is reformulated in a Bayesian framework, allowing a statistical formalization of coupling and cooperation. Tissue segmentation, local model regularization, structure segmentation and local affine atlas registration are then coupled in an EM framework and mutually improve. The evaluation on simulated and real images shows good results, and in particular, a robustness to non-uniformity and noise with low computational cost. Local distributed and cooperative MRF models then appear as a powerful and promising approach for medical image segmentation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Pons, Isabelle. „Méthodes de segmentation bayésienne appliquées aux images SAR : théorie et mise en oeuvre“. Nice, 1994. http://www.theses.fr/1994NICE4714.

Der volle Inhalt der Quelle
Annotation:
Les images obtenues par un SAR (Synthetic Aperture Radar) sont très différentes des données optiques couramment utilisées en télédétection. Elles sont bruitées par le speckle qui donne un aspect poivre et sel à l'image et complique son exploitation. La recherche d'une méthode de segmentation adaptée aux images SAR nous a conduit à envisager une approche bayésienne. La segmentation bayésienne repose sur une modélisation statistique de l'image au niveau de la distribution du signal ainsi qu'une modélisation de l'image des régions. La modélisation de l'image à segmenter permet donc de considérer les statistiques liées à l'image et prendre en compte la grande variabilité spatiale due au speckle. La théorie markovienne associée à la modélisation de l'image des régions introduit un modèle de dépendance entre pixels voisins et permet d'orienter la classification vers une recherche de régions. Nous avons tout d'abord exposé en détail les hypothèses liées à ces concepts (distribution du signal, segmentation bayésienne, champ de Markov) et nous avons présenté la théorie et les algorithmes associes de façon unifiée. La complexité de réalisation nous a conduit à proposer, dans un objectif opérationnel sur la totalité d'une image (3000*3000), l'introduction d'une phase d'apprentissage. Différentes options pour la modélisation de l'image ont été retenues. Ces algorithmes ont ensuite été appliqués sur des images sar différentes : une image SAR aéroportée sur le Jura et deux images ERS-1 sur la Guinée pour lesquelles nous disposions des données terrains. Les résultats obtenus ont été comparés par rapport à une réalité terrain et analyses. Globalement, le gain des classifications obtenues par nos algorithmes, par rapport à une classification pixel par pixel, est significatif. Ces bons résultats montrent l'intérêt de ce type d'approche pour obtenir une classification (pas de filtrage préalable, intégration des statistiques, approche par région) et nous avons établi, parmi, parmi les diverses options explorées, un algorithme efficace
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

García, Lorenzo Daniel. „Robust segmentation of focal lesions on multi-sequence MRI in multiple sclerosis“. Rennes 1, 2010. http://www.theses.fr/2010REN1S018.

Der volle Inhalt der Quelle
Annotation:
La sclérose en plaques (SEP) atteint autour de 80. 000 personnes en France. L'imagerie par résonance magnétique (IRM) est un outil essentiel pour le diagnostic de la SEP. Plusieurs bio-marqueurs sont obtenus à partir des IRM, comme le volume des lésions, et sont utilisés comme mesure dans des études cliniques en SEP, notamment pour le développement des nouveaux traitements. La segmentation manuelle des lésions est une tâche encombrante et dont les variabilités intra- et inter-expert sont grandes. Nous avons développé une chaîne de traitement automatique pour la segmentation des lesions focales en SEP. La méthode de segmentation est basée sur l'estimation robuste d'un modèle paramétrique des intensités du cerveau qui permet de détecter les lésions comme des données aberrantes. Nous avons aussi proposé deux méthodes pour ajouter de l'information spatiale avec les algorithmes mean shift et graph cut. Nous avons validé quantitativement notre approche en utilisant des images synthétiques et cliniques, provenant de deux centres différents pour évaluer la précision et la robustesse
Multiple sclerosis (MS) affects around 80. 000 people in France. Magnetic resonance imaging (MRI) is an essential tool for diagnosis of MS and MRI-derived surrogate markers such as MS lesion volumes are often used as measures in MS clinical trials for the development of new treatments. The manual segmentation of these MS lesions is a time-consuming task that shows high inter- and intra-rater variability. We developed an automatic workflow for the segmentation of focal MS lesions on MRI. The segmentation method is based on the robust estimation of a parametric model of the intensities of the brain; lesions are detected as outliers to the model. We proposed two methods to include spatial information in the segmentation using mean shift and graph cut. We performed a quantitative evaluation of our workflow using synthetic and clinical images of two different centers to verify its accuracy and robustness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Garcia, Arnaud. „Analyse statistique et morphologique des images multivaluées : développements logiciels pour les applications cliniques“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2008. http://tel.archives-ouvertes.fr/tel-00422589.

Der volle Inhalt der Quelle
Annotation:
La détection et la segmentation de formes dans les images à partir d'un échantillon nécessitent de combiner une analyse statistique des données à une analyse morphologique de l'image. L'analyse statique a pour objectif un calcul local de la similarité de l'image au modèle ; l'analyse morphologique vient compléter ce dispositif en permettant la prise en compte de l'information géométrique pour finaliser les étapes de détection et de segmentation. Les images étudiées sont des images multivaluées : images couleur, images multimodalité ou pile d'images émergeant d'une analyse multiéchelle d'une image scalaire... Le passage de l'image scalaire à l'image multivaluée pose des difficultés fondamentales, notamment pour l'analyse morphologique qui requiert de disposer d'un ordre total sur les valeurs manipulées. Contrairement aux scalaires, deux vecteurs ne sont pas comparables. La plupart des opérateurs définis dans le cas scalaire ne trouvent pas d'équivalent immédiat dans le cas vectoriel. Travailler à partir d'un échantillon permet de déverrouiller la situation, chaque élément de l'image multivaluée pouvant être ordonné selon sa similarité à l'échantillon. Sous réserve d'une relation univoque entre les vecteurs et leur rang dans l'espace des similarités, tous les opérateurs définis pour les images scalaires peuvent alors êtres étendus aux images vectorielles. Des applications sur les images couleur et sur des images médicales sont présentées. Une librairie "Open Source" (vmorph) a été réalisée afin détendre les opérateurs de morphologie mathématique aux vecteurs sur la base de nos travaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Rémi, Céline. „Contribution au choix de primitives en graphomotricité“. Rouen, 1999. http://www.theses.fr/1999ROUES074.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse était d'établir s'il existait des primitives spatio-temporelles et dynamiques de l'écriture permettant de différencier les enfants ayant des difficultés d'apprentissage des autres enfants de scolarité primaire. L'aboutissement de l'analyse entreprise dans ce but, a nécessité l'acquisition en ligne des productions d'un nombre conséquent d'enfants. Pour simplifier l'exploitation de cette importante masse de données, nous nous sommes intéressés au problème de l'analyse automatique des productions écrites. Un outil d'extraction automatique de primitives utilisant des techniques de segmentation en ligne du tracé par des formes géométriques et des techniques de classification a été conçu dans ce cadre. Grâce à cet outil, un grand nombre de primitives a pu être extrait de manière fiable et non supervisée sur la majorité des traces recueillis. Une base de données a été construite à partir de ces données. Afin d'atteindre l'objectif fixe, une analyse exploratoire de données a été réalisée. Elle a permis d'identifier 21 primitives pertinentes qui traduisent la stabilité des performances en terme de précision, de fluidité du mouvement et de vitesse. Des tests de classement réalisés ont montré que dans la majorité des cas traités, ces primitives permettaient de classer l'écriture des enfants réguliers suivant leurs niveaux scolaires. De plus, le risque d'affecter un enfant aà une classe inférieure à son niveau scolaire réel lors de l'analyse graphomotrice s'est avéré faible. Des tests complémentaires ont mis en évidence le fait que deux de ces primitives contribuent fortement à différencier les enfants ayant des difficultés d'apprentissage des autres. Elles sont relatives à la vitesse d'écriture et à la fluidité du mouvement. Ces résultats tendent à montrer que les aspects dynamiques des compétences graphomotrices sont probablement des éléments susceptibles d'être utiles pour l'aide au diagnostic des difficultés d'apprentissage.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Sebbar, Abdeljalil. „Synthèse et segmentation markovienne d'images sur la base d'informations propres à la texture“. Compiègne, 1989. http://www.theses.fr/1989COMPD177.

Der volle Inhalt der Quelle
Annotation:
De nouveaux algorithmes de synthèse et de segmentation de textures et de segmentation d'images bruitées sont étudiés. L'approche bayésienne utilisant les champs aléatoires de Markov a été adaptée pour modéliser la texture. Pour la synthèse de texture un ensemble de paramètres composé de filtres adaptés et des variances des images filtrées correspondantes est extrait lors d'une phase d'apprentissage. Ces paramètres sont ensuite utilisés dans un modèle markovien pour la synthèse de texture. On a pu ainsi tester la pertinence du modèle et des paramètres choisis. Ces derniers ont donc ensuite été utilisés avec succès dans un algorithme de segmentation bayésienne d'images texturées. L'originalité de ces algorithmes est que l'étape d'estimation ne dépend pas du nombre de niveaux de gris de la texture. L'algorithme de synthèse ainsi présenté est limité à des textures homogènes ayant de 2 à 4 niveaux de gris, tandis que l'algorithme de segmentation a été appliqué à des textures homogènes à 256 niveaux de gris. Un autre algorithme de segmentation d'images bruitées est étudié. Le modèle utilisé est aussi markovien. De bons résultats ont été obtenus sur une image réelle
New algorithms for texture synthesis and segmentation of textured images and for segmentation of noisy images are introduced. Markov random fields are used for texture modelling in a Bayesian approach. For texture synthesis, a set of parameters containing adapted filters and the variances of the corresponding filtered images is computed in a learning step. These parameters are then used in a Markovian model for texture synthesis. So we were able to observe the efficiency of the model and the parameters we choose. Then we have used them in a Bayesian segmentation algorithm of textured images. The originality of these synthesis and segmentation algorithm is that the estimation step is not depending on the number of the grey levels of the texture. The application of the presented synthesis algorithm is limited to homogenous textures with 2 to 4 grey levels, but the segmentation algorithm was applied to homogenous textures with 256 grey levels. An other algorithm for segmentation of noisy images was introduced. The model used is also Markovian. Good results were obtained on a real image
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Ribal, Christophe. „Anisotropic neighborhoods of superpixels for thin structure segmentation“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG117.

Der volle Inhalt der Quelle
Annotation:
En vision robotique, segmenter une image consiste à décomposer cette image en régions homogènes, en associant un label à chaque élément la constituant. Cette thèse propose une approche générique vis à vis de ces éléments, pixels ou superpixels, en les désignant communément sous le terme de sites. La résolution du problème inverse qu'est la segmentation d'images est généralement rendue robuste au bruit grâce à la formulation d'une hypothèse Markovienne sur le champ des labels, et d'un a priori d'homogénéité des labels au sein des voisinages. Cependant, la solution optimale (ou régularisée) tend alors à présenter des artéfacts indésirables, notablement la perte prématurée des structures fines, définies comme des structures dont la taille est réduite selon au moins une dimension. La construction de voisinages anisotropes adaptés à ces structures permet de pallier ce problème. Ces voisinages sont calculés après une première étape d'estimation des orientations des structures fines présentes dans l'image. Trois options, dont deux adaptées de la littérature, sont proposées pour réaliser cette étape cruciale : la minimisation d'une énergie, le vote de tenseurs, et le RORPO. À partir des cartes d'orientation obtenues, quatres méthodes de construction des voisinages anisotropes sont retenues. Tout d'abord, un voisinage défini par des formes géométriques est présenté, puis la restriction à un nombre fini de configurations pour chaque site permet de formuler un voisinage basé sur un dictionnaire. Enfin, deux voisinages basés sur des chemins entre sites (l'un à extrémités fixées et l'autre à taille constante) sont considérés, tous deux faisant intervenir une énergie à minimiser. Dans ce manuscrit, les segmentations obtenues par estimateur du Maximum A Posteriori (obtenu à partir de coupes de graphes) avec les voisinages anisotropes proposés sont comparées à celles supposant un voisinage isotrope dans le cas de deux applications : la détection de structures fines et la reconstruction de cartes de profondeur en Shape From Focus. Les résultats des différentes variantes proposées sont évalués qualitativement et quantitativement dans le but de souligner les apports de la méthode proposée
In the field of computer vision, image segmentation aims at decomposing an image into homogeneous regions. While usually an image is composed of a regular lattice of pixels, this manuscript proposes through the term of site a generic approach able to consider either pixels or superpixels. Robustness to noise in this challenging inverse problem is achieved by formulating the labels as a Markov Random Field, and finding an optimal segmentation under the prior that labels should be homogeneous inside the neighborhood of a site. However, this regularization of the solution introduces unwanted artifacts, such as the early loss of thin structures, defined as structures whose size is small in at least one dimension. Anisotropic neighborhood construction fitted to thin structures allows us to tackle the mentioned artifacts. Firstly, the orientations of the structures in the image are estimated from any of the three presented options: The minimization of an energy, Tensor Voting, and RORPO. Secondly, four methods for constructing the actual neighborhood from the orientation maps are proposed: Shape-based neighborhood, computed from the relative positioning of the sites, dictionary-based neighborhood, derived from the discretization to a finite number of configurations of neighbors for each site, and two path-based neighborhoods, namely target-based neighborhood with fixed extremities, and cardinal-based neighborhood with fixed path lengths. Finally, the results provided by the Maximum A Posteriori criterion (computed with graph cuts optimization) with these anisotropic neighborhoods are compared against isotropic ones on two applications: Thin structure detection and depth reconstruction in Shape From Focus. The different combinations of guidance map estimations and neighborhood constructions are illustrated and evaluated quantitatively and qualitatively in order to exhibit the benefits of the proposed approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Văcar, Cornelia Paula. „Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation“. Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0131/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence
This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Hadrich, Ben Arab Atizez. „Étude des fonctions B-splines pour la fusion d'images segmentées par approche bayésienne“. Thesis, Littoral, 2015. http://www.theses.fr/2015DUNK0385/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse nous avons traité le problème de l'estimation non paramétrique des lois de probabilités. Dans un premier temps, nous avons supposé que la densité inconnue f a été approchée par un mélange de base B-spline quadratique. Puis, nous avons proposé un nouvel estimateur de la densité inconnue f basé sur les fonctions B-splines quadratiques, avec deux méthodes d'estimation. La première est base sur la méthode du maximum de vraisemblance et la deuxième est basée sur la méthode d'estimation Bayésienne MAP. Ensuite, nous avons généralisé notre étude d'estimation dans le cadre du mélange et nous avons proposé un nouvel estimateur du mélange de lois inconnues basé sur les deux méthodes d'estimation adaptées. Dans un deuxième temps, nous avons traité le problème de la segmentation statistique semi supervisée des images en se basant sur le modèle de Markov caché et les fonctions B-splines. Nous avons montré l'apport de l'hybridation du modèle de Markov caché et les fonctions B-splines en segmentation statistique bayésienne semi supervisée des images. Dans un troisième temps, nous avons présenté une approche de fusion basée sur la méthode de maximum de vraisemblance, à travers l'estimation non paramétrique des probabilités, pour chaque pixel de l'image. Nous avons ensuite appliqué cette approche sur des images multi-spectrales et multi-temporelles segmentées par notre algorithme non paramétrique et non supervisé
In this thesis we are treated the problem of nonparametric estimation probability distributions. At first, we assumed that the unknown density f was approximated by a basic mixture quadratic B-spline. Then, we proposed a new estimate of the unknown density function f based on quadratic B-splines, with two methods estimation. The first is based on the maximum likelihood method and the second is based on the Bayesian MAP estimation method. Then we have generalized our estimation study as part of the mixture and we have proposed a new estimator mixture of unknown distributions based on the adapted estimation of two methods. In a second time, we treated the problem of semi supervised statistical segmentation of images based on the hidden Markov model and the B-sline functions. We have shown the contribution of hybridization of the hidden Markov model and B-spline functions in unsupervised Bayesian statistical image segmentation. Thirdly, we presented a fusion approach based on the maximum likelihood method, through the nonparametric estimation of probabilities, for each pixel of the image. We then applied this approach to multi-spectral and multi-temporal images segmented by our nonparametric and unsupervised algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Sodjo, Jessica. „Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0152/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image
This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Kara-Falah, Riad. „Segmentation d'images : coopération, fusion, évaluation“. Chambéry, 1995. http://www.theses.fr/1995CHAMS010.

Der volle Inhalt der Quelle
Annotation:
La segmentation d'images naturelles complexes est généralement imparfaite si l'on n'utilise qu'une seule technique de segmentation. Il est donc nécessaire de faire coopérer plusieurs processus de segmentation. Le travail réalisé dans cette thèse se divise en deux parties: 1) Développement d'une approche coopérative pour la segmentation d'images naturelles. Le principe consiste à utiliser la redondance entre les résultats obtenus par plusieurs segmentations «région» afin de localiser des germes qui ont une grande certitude d'appartenir à des régions homogènes. A partir de ces germes une procédure de croissance de régions basée sur les caractéristiques des germes permet d'agglomérer progressivement les pixels hors germes. Le processus est contrôlé par le gradient de l'image afin d'obtenir une meilleure précision sur les frontières des régions extraites. Les germes sont extraits par un mécanisme de fusion de plusieurs segmentations primaires. Ce mécanisme permet également de proposer une segmentation consensus entre les segmentations de départ. 2) Caractérisation quantitative du résultat de la segmentation: La mesure couramment utilisée est basée sur le pourcentage des pixels mal classés entre le résultat fourni par un algorithme de segmentation et une segmentation de référence. Cette mesure reste insuffisante car elle ignore toute information spatiale sur la localisation des frontières des régions. La nouvelle mesure proposée tient compte à la fois du nombre de pixels mal classés et de leurs localisations. Cette mesure de dissimilarité permet l'évaluation numérique du résultat d'un algorithme de segmentation sur des images où l'on connaît la segmentation de référence. De plus, elle permet d'étendre à l'espace des segmentations certaines techniques de filtrage développées dans le cas de signaux scalaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Thivin, Solenne. „Détection automatique de cibles dans des fonds complexes. Pour des images ou séquences d'images“. Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS235/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de ces travaux de thèse a été la mise en place d'un algorithme de détection de cibles sous-résolues pour des images infra-rouges de ciel.Pour cela, nous avons d'abord cherché à modéliser les images réelles dont nous disposions. Après une étude de ces images, nous avons proposé plusieurs modèles gaussiens prenant en compte la covariance spatiale. Dans ces modèles, nous avons supposé que les images pouvaient être segmentées en zones stationnaires. Dans chaque zone, nous avons supposé une structure forte sur la matrice de covariance (comme les modèles auto-régressifs en deux dimensions par exemple).Il a ensuite fallu choisir entre ces modèles. Pour cela, nous avons appliqué une méthode de sélection de modèles par critère de vraisemblance pénalisée introduite par Birgé et Massart. Nous avons obtenu comme résultats théoriques une inégalité oracle qui a permis de démontrer les propriétés statistiques du modèle choisi. Une fois le modèle sélectionné, nous avons pu bâtir un test de détection. Nous nous sommes inspirés de la théorie de Neyman-Pearson et du test du rapport de vraisemblance généralisé. Notre contrainte principale a été le respect du taux de fausses alarmes par image. Pour le garantir, nous avons appris le comportement du test sur les images réelles pour en déduire le seuil à appliquer.~~Nous avons ensuite remarqué que le comportement de ce test variait fortement selon la texture de l'image : image de ciel bleu uniforme, image de nuage très texturé, etc. Après avoir caractérisé les différentes textures rencontrées avec les coefficients de scattering de Stéphane Mallat, nous avons décidé de classer ces textures. Le seuil appliqué lors de la détection a alors été adapté à la texture locale du fond. Nous avons finalement mesuré les performances de cet algorithme sur des images réelles et nous les avons comparées à d'autres méthodes de détection.Mots-clés: Détection, Covariance spatiale, Sélection de modèles, Apprentissage, Classification non supervisée
During this PHD, we developped an detection algorithm. Our principal objective was to detect small targets in a complex background like clouds for example.For this, we used the spatial covariate structure of the real images.First, we developped a collection of models for this covariate structure. Then, we selected a special model in the previous collection. Once the model selected, we applied the likelihood ratio test to detect the potential targets.We finally studied the performances of our algorithm by testing it on simulated and real images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Zouagui, Tarik. „Approche fonctionnelle générique des méthodes de segmentation d'images“. Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0042/these.pdf.

Der volle Inhalt der Quelle
Annotation:
La segmentation d'image est une opération de traitement d'image de bas niveau qui consiste à localiser dans une image les régions (ensembles de pixels) appartenant à une même structure (objets ou scène imagés). Cette opération est à la base de nombreuses applications tant en vision industrielle, qu'en imagerie médicale. De nombreuses recherches ont eu lieu dans le passé sur les méthodes de segmentation. Il en résulte un très grand nombre de méthodes dont la comparaison, soit en terme de structure soit en terme de performance, est très difficile. L'objectif de cette thèse est de proposer une nouvelle vision de la segmentation d'images basée sur un modèle fonctionnel (MF) original. Ce modèle qui décrit la segmentation en termes de fonctions, se présente sous la forme d'un opérateur de segmentation (OS). L'OS est composé de cinq blocs élémentaires enchaînés au cours d'un processus itératif qui correspond au processus de segmentation. Ce modèle fonctionnel unifie les méthodes de segmentation sous un formalisme commun et permet une meilleure compréhension de ces méthodes. En effet, la décomposition avec la même logique de techniques de segmentation (simple ou complexe) a priori totalement différentes a été obtenue et implantée. Cela a permis de montrer la généricité du modèle proposé et son utilité pour la structuration, la comparaison et l'implantation logicielle des nombreuses méthodes de segmentation. Ces décompositions qui ont conduit à un certain nombre de blocs fonctionnels indépendants, ont servi à la réalisation d'un logiciel modulaire dénommé GenSeg. Ce logiciel peut aider à terme à construire de nouvelles techniques de segmentation
Image segmentation is a low-level image processing operation, which consists in recognizing homogeneous regions within an image as distinct and belonging to different objects. A wide range of works has been undertaken to achieve this aim and segmentation has been used in applications ranging from industrial to medical uses. One of the results, is a very great number of segmentation methods, which makes the task of comparing them a very difficult challenge. We propose a new approach of the image segmentation methods based on a functional model (FM). The core of the functional model is a segmentation operator (SO) composed of five elementary blocks called in an iterative process. The functional model unifies segmentation methods under the same framework and allows a better understanding of these methods. Indeed, the decomposition with the same logical way of various segmentation techniques has been obtained and implemented. This showed the genericity of the model and its usefulness in structuring and implementing segmentation methods. We propose also a multi-operator model which represents complex segmentation methods like multiresolution or agent-based methods. The decompositions led to independent functional blocks which have been used to realize a modular software called GenSeg. This software can help in implementing segmentation techniques and in building new methods as well
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Precioso, Frédéric. „Contours actifs paramétriques pour la segmentation d'images et vidéos“. Nice, 2004. http://www.theses.fr/2004NICE4078.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’inscrit dans le cadre des modèles de contours actifs. Il s’agit de méthodes dynamiques appliquées à la segmentation d’image, en image fixe et vidéo. L’image est représentée par des descripteurs régions et/ou contours. La segmentation est traitée comme un problème de minimisation d’une fonctionnelle. La recherche du minimum se fait via la propagation d’un contour actif di basé régions. L’efficacité de ces méthodes réside surtout dans leur robustesse et leur rapidité. L’objectif de cette thèse est triple : le développement (i) d’une représentation paramétrique de courbes respectant certaines contraintes de régularités, (ii) les conditions nécessaires à une évolution stable de ces courbes et (iii) la réduction des coûts de calcul afin de proposer une méthode adaptée aux applications nécessitant une réponse en temps réel. Nous nous intéressons principalement aux contraintes de rigidité autorisant une plus grande robustesse vis-à-vis du bruit. Concernant l’évolution des contours actifs, nous étudions les problèmes d’application de la force de propagation, de la gestion de la topologie et des conditions de convergence. Nous avons fait le choix des courbes splines cubiques. Cette famille de courbes offre d’intéressantes propriétés de régularité, autorise le calcul exact des grandeurs différentielles qui interviennent dans la fonctionnelle et réduit considérablement le volume de données à traiter. En outre, nous avons étendu le modèle classique des splines d’interpolation à un modèle de splines d’approximation, dites smoothin splines. Ce dernier met en balance la contrainte de régularité et l’erreur d’interpolation sur les points d’échantillonnage du contour. Cette flexibilité permet ainsi de privilégier la précision ou la robustesse. L’implémentation de ces modèles de splines a prouvé son efficacité dans diverses applications de segmentation
Active contour modelling represents the main framework of this thesis. Active contours are dynamic methods applied to segmentation of till images and video. The goal is to extract regions corresponding to semantic objects. Image and video segmentation can be cast in a minimization framework by choosing a criterion which includes region and boundary functional. The minimization is achieved through the propagation of a region-based active contour. The efficiency of these methods lies in their robustness and their accuracy. The aim of this thesis is triple : to develop (i) a model of parametric curve providing a smooth active contour, to precise (ii) conditions of stable evolution for such curves, and to reduce (iii) the computation cost of our algorithm in order to provide an efficient solution for real time applications. We mainly consider constraints on contour regularity providing a better robustness regarding to noisy data. In the framework of active contour, we focus on stability of the propagation force, on handling topology changes and convergence conditions. We chose cubic splines curves. Such curves provide great properties of regularity allow an exact computation for analytic expressions involved in the functional and reduce highly the coputation cost. Furthermore, we extended the well-known model-based on interpolating splines to an approximating model based smoothing splines. This latter converts the interpolation error into increased smoothness, smaller energy of the second derivative. The flexibility of this new model provides a tunable balance between accuracy and robustness. The efficiency of implementating such parametric active contour spline-based models has been illustrated for several applications of segmentation process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Koepfler, Georges. „Formalisation et analyse numérique de la segmentation d'images“. Paris 9, 1991. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1991PA090027.

Der volle Inhalt der Quelle
Annotation:
En se basant sur une vaste bibliographie, on présente une introduction à la segmentation. Une formalisation variationnelle de la segmentation est proposée et l'aspect variationnel est mis en évidence dans trois exemples d'algorithmes. On enchaîne par une étude détaillées du modèle énergétique le plus simple : la fonctionnelle de Mumford et Shah avec approximation constante par morceaux. On définit une classe de minima locaux qui correspondent à des segmentations obtenues par des méthodes de croissance de régions. Des résulats d'expériences sont présentés. Au cours d'une revue des techniques de segmentation de textures, on explique la théorie des textons. Un algorithme universel de discrimination de textures est développé et quelques expériences sont présentées. Enfin, on étudie les propriétés de rectifiabilité des frontières obtenues par segmentation. On introoduit une propriété, dite propriété des projections qui est reliée à la propriété de compacité de Dal Maso, Morel, Solimini et qui préserve la rectifiabilité lors de passages à la limite avec la distance de Hausdorff. On construit des exemples d'ensembles totalement non rectifiables et de mesure de Hausdorff non nulle, pour illustrer les deux propriétés citées plus haut.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Perroton, Laurent. „Segmentation parallèle d'images volumiques“. Lyon 1, 1994. http://www.theses.fr/1994LYO10328.

Der volle Inhalt der Quelle
Annotation:
Dans cette these, nous nous sommes interesse a plusieurs problemes lies a l'imagerie discrete 3d d'une part, et a la parallelisation d'algorithmes de segmentation d'images d'autres part. Dans une premiere partie, divers problemes d'imagerie discrete 3d sont presentes. L'approche des complexes cellulaires dont l'objectif est d'offrir une modelisation coherente en imagerie volumique discrete est introduite. Une notion de surface discrete composee d'elements bidimensionnels de l'espace 3d est rappele. Plusieurs resultats theoriques sur ce sujet sont rassembles dans un rapport de recherche fourni en annexe. Les principaux resultats personnels sont repris dans la these: une extension aux objets 26-connexes de la definition des surfaces discretes qui verifie la propriete fondamentale qu'il existe une surface connectee entre chaque pair de composante objet, composante du fond. Enfin, on propose egalement un algorithme d'extraction de surfaces sur pram. Dans une deuxieme partie, une bibliographie sur le sujet de la segmentation d'image est presentee. Des algorithmes de segmentation d'image par fusion de regions sont introduits, et on compare des algorithmes a caracteres intrinsequement sequentiels et paralleles existant. Dans ce cadre la, une etude de la parallelisation de l'etiquetage en composantes connexes des images binaires 3d est presentee. Une bibliographie du sujet decris les principaux algorithmes sequentiels et les diverses approches paralleles existantes. Nous introduisons notre contribution personnelle qui est un algorithme parallele sur hypercule ipsc860. La derniere partie de la these presente divers outils qui ont ete developpes pour la parallelisation du traitement d'images volumiques: la librairie ppcm qui definie un standard de communication pour des machines paralleles mimd a memoire distribuee et une structure de donnee qui inclue des fonctions d'equilibrage de charges
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Moghrani, Madjid. „Segmentation coopérative et adaptative d’images multicomposantes : application aux images CASI“. Rennes 1, 2007. http://www.theses.fr/2007REN1S156.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse s'inscrivent dans le cadre des approches coopératives de segmentation d’images. Deux systèmes adaptatifs ont été mis en œuvre: l'un parallèle, l'autre séquentiel. Le système parallèle met en concurrence les méthodes de segmentation par classification. Le système séquentiel exécute ces mêmes méthodes suivant un ordonnancement établi. L'extraction des attributs pour segmenter les différentes régions est effectuée de manière adaptative en fonction de la nature uniforme (faiblement texturée) ou texturées des régions. Les deux systèmes sont composés de trois modules principaux. Le premier module permet de détecter la nature des régions de l'image (uniformes et texturées) afin d'adapter le type de traitement a posteriori. Le deuxième module est dédié à la segmentation des régions détectées en fonction de leur nature. Les résultats de segmentation sont évalués et validés à des niveaux différents du traitement. Le troisième module fusionne les résultats intermédiaires obtenus sur les deux types de région détectés. Les deux systèmes sont testés et comparés sur des images synthétiques et réelles, monocomposantes et multicomposantes de télédétection aérienne
This thesis focuses on cooperative approaches in image segmentation. Two adaptive systems were implemented; the first is parallel and second is sequential. The parallel system is based on competing methods of segmentation by classification. The sequential system runs these methods according to a predefined schedule. The extraction of features for segmentation is performed according of the region’s nature (uniform or textured). Both systems are composed of three main modules. The first module aims to detect the region’s nature of the image (uniforms or textured) in order to adapt further processings. The second module is dedicated to the segmentation of detected regions according to their nature. The segmentation results are assessed and validated at different levels of the segmentation process. The third module merges intermediate results obtained on the two types of areas. Both systems are tested and compared on synthetic and real mono- and multi-component images issued from aerial remote sensing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Grenier, Thomas. „Apport de l'espace des caractéristiques et des paramètres d'échelle adaptatifs pour le filtrage et la segmentation d'image“. Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0116/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, nous étudions l'apport de l'espace des caractéristiques et des paramètres d'échelle adaptatifs pour le filtrage et la segmentation d'image. D'une manière générale, l'espace des caractéristiques se définit comme un espace multidimensionnel dans lequel il est possible de représenter un vecteur de paramètres xi associé à un individu i. Ces paramètres, que nous appelons " caractéristiques ", décrivent i, peuvent être scalaires ou vectoriels et correspondent à tout type d'information mesurable sur l'individu i : sa localisation spatiale, sa couleur, sa texture, sa courbure, ses propriétés échogènes, etc. Le paramètre d'échelle est défini comme une grandeur scalaire ou matricielle intervenant dans la pondération de ces mesures. Lorsque ce paramètre d'échelle dépend de l'individu i, il est appelé " paramètre d'échelle adaptatif ". Nous montrons dans une première partie que ces deux concepts peuvent être plus rigoureusement définis en statistique dans le contexte de la théorie de l'estimation non paramétrique. Nous étudions successivement les estimations de densité par noyaux monodimensionnel, multidimensionnel puis localement adaptatif. Nous évaluons les noyaux ou les paramètres d'échelle selon des critères statistiques d'optimalité. Dans une seconde partie, nous nous intéressons à une méthode basée sur l'estimation non paramétrique par noyau : le " Mean Shift ". Cette méthode, par son formalisme, présente l'avantage de prendre en compte l'ensemble des caractéristiques liées à un individu et offre la possibilité d'adapter localement le paramètre d'échelle. Le principe du " Mean Shift " repose sur la localisation itérative des modes (maxima locaux) de la densité sous-jacente. Plusieurs procédures " Mean Shift " sont détaillées. Nous terminons par l'intérêt du " Mean Shift " pour le filtrage d'image. Dans la troisième partie, nous proposons un nouveau formalisme pour la segmentation par croissance de région qui permet de généraliser le processus à l'espace des caractéristiques et de prendre en compte des paramètres d'échelle globaux ou locaux. Par ailleurs, nous montrons qu'un large éventail de méthodes de croissance de région existantes peut être décrit par ce formalisme. Dans la dernière partie, nous terminons par la présentation et la validation (qualitative et quantitative) de nos contributions méthodologiques. Nous proposons quatre méthodes de filtrage et de croissance de région relevant de l'approche multidimensionnelle ou de l'approche adaptative. Nos méthodes sont appliquées avec succès à des données issues de l'imagerie médicale et plus particulièrement à l'imagerie ultrasonore et à l'imagerie TEP
In this work, we propose the use of feature space and adaptive scale parameters for image filtering and image segmentation. Feature space is a multidimensional space where a vector xi of parameters related to an entity i can be represented. These parameters, so-called features, represent any information about the entity i such as spatial localisation, colour, texture, curvature, echogenic properties … The scale parameter is a scalar or a matrix quantity used to weight the measurement tied to a given feature. When associated to a particular entity i, the scale parameter becomes an adaptive scale parameter. In a first part, we remind a rigorous definition of the feature space and adaptive scale parameters concepts in statistic, in the context of non-parametric kernel-based estimation theory. Monodimensional, multidimensional and adaptive kernel-based estimations are successively studied. Optimal kernel and optimal scale parameter are defined relatively to a statistic criterion. Then, we present the “Mean Shift” method. Derived from the previous non-parametric estimation, “Mean Shift” method is well-suited to take into account for an entity i both all its features and the locally adaptive behaviour of a scale parameter. “Mean Shift” procedure consists in an iterative mode seeking (local maxima) of the density function. Many “Mean Shift” procedures are detailed and their interests for image filtering presented. In a third part, we propose a formulation to integrate region growing in the feature space and to take into account global or local scale parameters. We also show that a large number of existing region growing methods can be described using this formulation. In the last part, we propose two filtering methods and two region growing methods based on multidimensional and adaptive approaches. Our methods are applied on medical images including US and TEP images giving promising results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Boukala, Nabil. „Contribution des modèles statistiques de forme et d'apparence à la segmentation d'images“. Saint-Etienne, 2007. http://www.theses.fr/2007STET4006.

Der volle Inhalt der Quelle
Annotation:
Ce travail de recherche s'inscrit dans le domaine de la segmentation d'images à l'aide de modèles déformables. Nous étudions 2 types de modèles : -les contours actifs ou snakes, -les modèles statistiques, notamment les modèles actifs de forme (ASM) et d'apparence (AAM). Nous proposons d'appliquer ces différentes méthodes au problème de la segmentation d'images radiographiques du bassin. Cette étude comparative révèle la supériorité, en termes de précision et robustesse, des ASM par rapport aux autres approches étudiées. Cependant, notre ensemble de données met clairement en avant une limitation majeure de la méthode à savoir la nécessité d'un ensemble d'entraînement de taille conséquente, contrainte commune aux AAM. En effet, la mise en oeuvre de ces méthodes implique non seulement la possession de nombreuses images-exemples, mais également leur annotation manuelle, soit une lourdeur de la phase d'apprentissage et une limitation du champ d'application. L'approche proposée s'appuie sur des modèles locaux d'apparence très précis. Ces derniers décrivent les variations produites en perturbant aléatoirement le modèle de forme sur une ou plusieurs images d'entraînement. Notre stratégie de recherche fait usage de classificateurs statistiques qui indiquent dans quelles directions chacun des points du modèle doit évoluer. Outre le gain en précision et robustesse apporté, notre approche élargit le domaine d'application au suivi d'objet ou tracking puisqu'elle se satisfait de peu d'exemples d'apprentissage, une unique image pouvant éventuellement remplir cet office. Dans ce cas, un enrichissement du modèle de forme à l'aide d'une méthode par éléments finis est nécessaire
We purpose in this thesis to study two kinds of deformable models for image segmentation: - active contours or snakes, - statistical models, especially the learning-based active shape (ASM) and active appearance models (AAM). We propose to apply these approaches for segmenting high resolution X-ray images of the bassin. Our comparative study reveals the superiority, in terms of precision and robustness of the ASM over the other studied methods. However, our dataset also points out one major limitation shared by both ASM and AAM approaches which is the need for a large training set. Indeed, for their training, these models require a large number of manually annotated image-examples, thus representing a time-consuming phase and restricting the field of application of these methods. The method we propose, more than an hybrid approach, relies on an original training scheme which leads to improvements in terms of precision of localization and robustness to poor initializations. Our approach is also particularly appropriate for small training sets as, given a suitable PDM, the training of the local appearance models we use can be performed on a single image without producing a significant loss of precision in segmentation results. We have performed extensive experiments to demonstrate our algorithm and are providing the results which also shows promise for applications such as object tracking in a video sequence or surface reconstruction from volume data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Arbelaez, Escalante Pablo Andrés. „Une approche métrique pour la segmentation d'images“. Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090051.

Der volle Inhalt der Quelle
Annotation:
La segmentation de bas niveau est la tâche qui consiste à extraire les caractéristiques géométriques d'une image en créant une partition de son domaine de définition sans connaître préalablement son contenu sémantique. L'approche proposée dans cette thèse repose sur la formulation du problème dans le cadre métrique, où les partitions de l'espace sont déterminées par la définition d'une distance. Deux types de distances sont étudiés afin d'appliquer le formalisme métrique à la segmentation d'images naturelles. Le premier est obtenu en mesurant une énergie le long des chemins. Nous construisons notamment une distance définie par le minimum de la variation totale de l'image sur les chemins. Nous considérons ensuite une représentation hiérarchique des contours des images fondée sur un deuxième type de distances, les ultramétriques. Enfin, au moyen de segmentations humaines, nous évaluons quantitativement notre approche et la comparons à d'autres méthodes de segmentation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Monga, Olivier. „Segmentation d'images par croissance hiérarchique de régions“. Paris 11, 1988. http://www.theses.fr/1988PA112054.

Der volle Inhalt der Quelle
Annotation:
L'objectif est de définir un outil algorithmique permettant d'utiliser de manière optimisée une suite de critères de segmentation. Pour cela, le problème de la segmentation est reformulé et une méthodologie illustrant cette nouvelle définition est proposée. L'algorithme est implanté à l'aide de structures de données adaptées. La validité de l'approche est utilisée par l'application à la segmentation d'images bidimensionnelles monochromatiques et multi chromatiques ainsi qu'à la segmentation d'images sismiques tridimensionnelles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Chabrier, Sébastien. „Contribution à l'évaluation de performances en segmentation d'images“. Orléans, 2005. http://www.theses.fr/2005ORLE2076.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est une contribution à l'évaluation de la qualité d'un résultat de segmentation d'image. Après un état de l'art sur les différentes approches d'évaluation (supervisées ou non supervisées), différents critères sont comparés à partir de bases d'images synthétiques et réelles. De nouveaux critères d'évaluation non supervisée sont proposés en adoptant trois approches: la première consiste à définir un critère adaptatif sur le type des images, le second réalise une fusion de plusieurs critères par combinaison linéaire et le dernier un apprentissage de la comparaison. Ce dernier critère permet d'avoir un jugement similaire à une référence dans 85% des cas, améliorant ainsi le meilleur critère de la littérature de presque 20%.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Pattisina, Ronny. „Codage et segmentation d'images par des méthodes combinatoires“. Dijon, 2002. http://www.theses.fr/2002DIJOS053.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Douchez, Marie-Claire. „Utilisation des concepts d'analyse statistique des données et de connexité pour la segmentation des images“. Lille 1, 1993. http://www.theses.fr/1993LIL10058.

Der volle Inhalt der Quelle
Annotation:
Un moyen efficace pour condenser l'information visuelle contenue dans une scène consiste à segmenter l'image numérisée. Notre travail qui s'inscrit dans cette optique, consiste à classer les points-image entre les classes associées aux différents types de régions homogènes constituant l'image analysée. Cependant, les conditions de réussite d'une telle procédure de segmentation reposent pour une grande part sur l'uniformité spatiale de l'illumination de la scène observée. Ainsi, nous avons développé une nouvelle approche de prétraitement des images. Son principe, basé sur un schéma itératif de modélisation des variations spatiales basses fréquences de la luminance, permet d'obtenir une image représentative des variations d'illumination. Après soustraction de ces variations estimées de l'image originale, l'image résultante peut être segmentée par un seuil global. Dans un contexte non supervisé, nous proposons ensuite une approche statistique de classification des points-image. Avec pour unique hypothèse la normalité de la distribution des niveaux de gris des points associés à chaque classe à identifier, nous utilisons les concepts mathématiques de base de la classification statistique des données afin d'identifier les différentes distributions qui composent la distribution des niveaux de gris des points de l'image. Notre approche a été généralisée dans le cas d'une caractérisation multidimensionnelle des points-image. Cette approche statistique s'avère cependant limitée du fait du manque de la prise en compte des relations spatiales existantes entre les points-images. Pour remédier à cet inconvénient, nous proposons finalement une approche par fusions hiérarchiques des régions qui utilise ces propriétés spatiales pour segmenter les images. Cette étude, validée par des expérimentations sur des images synthétiques, débouche sur des résultats satisfaisants dans le cas d'images réelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Martin, Pascal. „Application du principe de minimisation de la complexité stochastique à la segmentation d'images bruitées par contour actif“. Aix-Marseille 3, 2006. http://www.theses.fr/2006AIX30010.

Der volle Inhalt der Quelle
Annotation:
La segmentation d'image consiste à diviser une image en différentes régions d'intérêts possédant certaines propriétés d'homogénéité. Elle intervient dans de multiples domaines d'applications et les images à traiter peuvent alors être perturbées par des bruits de natures différentes. La majorité des techniques de segmentation développée nécessite le réglage d'au moins un paramètre dans le critère à optimiser. Au cours de cette thèse, nous présentons des algorithmes de segmentation en deux régions qui reposent sur la minimisation de la complexité stochastique de l'image. Nous proposons notamment une modélisation statistique non paramétrique originale des fluctuations des niveaux de gris de l'image. Nous obtenons ainsi, la première technique de segmentation adaptée au bruit présent dans l'image sans connaissance \emph{a priori} sur les lois de probabilité qui le décrivent et qui repose sur l'optimisation d'un critère sans paramètre à ajuster
Image segmentation consists in divise an image into differents regions of interest. It occurs in many application areas and the processed images can thus be corrupted with noise of various physical origin. Most of the developped segmentation techniques are based on the optimization of a criterion that has at least one parameter to be tune by the user. In this work, we present segmentation algorithms in two regions based on the minimization of the stochastic complexity of the image. In particular, we propose an original nonparametric statistical modelization of the fluctuations of the gray levels. We thus obtain the first segmentation technique adapted to the noise present in the segmented image without \emph{a priori} knowledge of the probability laws which describe it and which is based on the optimization of a criterion without parameter to be tuned by the user
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Drot, Sébastien. „Segmentation d'images d'observation de la terre par des techniques de géométrie stochastique“. Nice, 2002. http://www.theses.fr/2002NICE5793.

Der volle Inhalt der Quelle
Annotation:
Les techniques probabilistes utilisées pour la segmentation des images ou la classification sont généralement fondées sur une approche pixélique. Elles sont réputées pour leur robustesse au bruit grâce notamment à la prise en compte des statistiques du bruit et d'information a priori sur la segmentation recherchée (homogénéité, texture). Ces méthodes se sont avérées particulièrement pertinentes principalement sur les données basse ou moyenne résolution (AVHRR, Landsat, SPOT). Avec des données plus résolues (centimétriques) comme les images satellitaires et aériennes haute résolution, les approches pixéliques de la segmentation montrent leurs limites car elles n'utilisent aucune information géométrique sur les objets recherchés (en milieu rural par exemple, les champs sont des entités très géométriques). Il s'avère donc souhaitable de développer des méthodes assurant la prise en compte de ce type d'information. Pour conserver les atouts des approches bayesiennes tout en tenant compte de propriétés géométriques simples, nous proposons des modèles fondées sur des processus objet. Nous avons développé deux familles de modèles à base de triangles équilatéraux : la première à orientation fixe (4 directions de triangles), la seconde à orientation quelconque. Ces modèles contiennent des informations a priori favorisant les configurations (c'est à dire ici les collections de triangles) proches d'un pavage du plan et un terme d'attache aux données donnant une probabilité plus forte aux triangles recouvrant des zones ayant une texture homogène. Ils sont optimisés par un recuit-simulé fondé sur un algorithme de type MCMC à sauts réversibles. A ce stade, nous obtenons une sur-segmentation. Un post-traitement permet ensuite de fusionner les triangles recouvrant des zones de même texture. Cette approche a été appliquée avec succès à des images aériennes optiques ainsi qu' à des images satellitaires radar
Probabilist techniques used for image segmentation or image classification are generally based on a pixelwise approach. They are well-known for their robustness w. R. T. Noise because of their ability to take into account noise statistics and a priori information on the segmentation (homogeneity, texture). These methods have been proved to be particularly relevant for low and medium resolution data (AVHRR, Landsat, SPOT). With high resolution data (as for example aerial images), these methods reach their limits because they do not use any geometrical information on the underlying objects (in rural environment for example, fields are geometrical entities). So, it is desirable to develop new methods that take into account this kind of information. To keep the advantages of Bayesian approaches within taking into account simple geometrical properties, we suggest to use object point processes. We have developped two families of models based on some equilateral triangles: in the first case, triangles can have only four directions; in the second case, orientation is arbitrary. Those models embed some a priori information that favour configurations closed to a partition of the image (here, a configuration is a collection of triangles); data attachment gives a more important probability for objects that are localized on homogeneous texture. They are optimized thanks to a simulated annealing scheme based on a Reversible Jump MCMC algorithm. At this stage, we obtain an over-segmentation. Then, a post-processing enables to merge areas with similar radiometries. This approach has been applied with success to optical aerial data and radar satellite images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Harp, Josselin. „Contribution à la segmentation des images : applications à l'estimation des plans texturés dans des images planes et omnidirectionnelles“. Amiens, 2003. http://www.theses.fr/2003AMIE0313.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Ezziane, Nadia. „Segmentation d'images texturées par analyse multi-échelle“. Poitiers, 1997. http://www.theses.fr/1997POIT2366.

Der volle Inhalt der Quelle
Annotation:
La segmentation d'images est un probleme tres important en vision par ordinateur. L'originalite de la methode de segmentation par analyse multi-echelle que nous proposons, repose d'une part sur la mise en place d'un traitement multiresolution base sur la construction d'un banc de filtres passe-bas, et d'autre part sur l'utilisation simultanee de l'approche frontiere et de l'approche par croissance de regions. L'utilisation de cette combinaison a plusieurs echelles a permis de reperer les regions homogenes dans les images traitees et de localiser les frontieres qui les delimitent. Les frontieres ainsi trouvees sont generalement mal definies et eparses. Nous avons alors developpe une etape supplementaire de traitement qui a pour objectif d'affiner ces resultats. Cette seconde etape appelee post-traitement consiste a mettre en uvre une procedure permettant de detecter tous les points susceptibles de former un contour fin. Nous utilisons a cette fin la methode appelee ligne de partage des eaux. Malgre les exigences diverses de cette methode, nous avons pu l'adapter a notre type d'images en developpant un algorithme de suivi de cretes. Cette methode de segmentation a ete testee et validee sur des images de synthese. Nous l'avons ensuite appliquee a des images reelles issues de coupes de cerveau ; les resultats obtenus sont egalement satisfaisants. Elle permet de mettre en evidence de nombreuses regions mal identifiee avec les methodes de segmentation classiques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Thourel, Pierre. „Segmentation d'images sonar par modélisation markovienne hiérarchique et analyse multirésolution“. Brest, 1996. http://www.theses.fr/1996BRES2026.

Der volle Inhalt der Quelle
Annotation:
Le sonar haute resolution constitue un moyen efficace pour observer la tres grande variete d'objets reposant sur les fonds marins. Leur detection puis leur classification (en tant que rochers, epaves, objets manufactures,) est alors realisee grace a une analyse de la forme de l'ombre qu'ils produisent sur les images sonar. L'automatisation de la phase de classification requiert une premiere etape de segmentation des images acoustiques. Malheureusement, les resultats obtenus par les traitements classiques de segmentation ne sont pas satisfaisants en raison de la presence d'un fort bruit de speckle. Nous proposons donc une nouvelle approche qui permet d'aborder ce probleme de segmentation des images sonar par l'intermediaire d'une modelisation markovienne. Le premier volet de ce travail est consacre a la conception d'un modele markovien de segmentation qui integre a la fois une caracterisation des liens existants entre les etiquettes et les pixels de l'image observee (modelisation du terme d'attache aux donnees par des lois normales ou de rayleigh) et une description de la forme particuliere de certaines ombres permettant ainsi une regularisation du champ des etiquettes (modelisation du terme contextuel par des fonctions de potentiel definies sur des cliques binaires et quaternaires). L'estimation non supervisee des parametres du terme d'attache aux donnees repose sur la minimisation du critere de kolmogorov tandis que les parametres du terme a priori sont calibres par la methode des boites qualitatives. Afin d'ameliorer les performances de cette methode, nous avons ensuite retenu deux approches complementaires. Tout d'abord nous associons une analyse multigrille au modele markovien de segmentation afin de traiter un tres grand nombre d'images sonar. La deuxieme approche consiste a coupler une analyse multiresolution des images sonar avec un modele markovien hierarchique afin de segmenter des images representant en particulier des fonds marins rocheux. Ces deux methodes de segmentation ont ete validees sur des images de synthese et de nombreuses images reelles de sonar haute resolution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Zemirli, Kafia. „Contrôle de segmentation pour l'extraction de formes“. Paris 11, 2000. http://www.theses.fr/2000PA112292.

Der volle Inhalt der Quelle
Annotation:
L'étude proposée ici tente de simuler le système visuel animal en essayant de recréer ses facultés d'adaptation. Comme la vision active qui consiste à élaborer des stratégies de perception intelligentes, en contrôlant les paramètres du capteur (position, vitesse, mise au point, etc. ) Nous voulons contrôler la segmentation pour extraire des formes dans une image de scène. Il s'agit de trouver l'information utile grâce à la connaissance courante sur l'état de la tache et aux observations locales fournies par la perception. Pour y parvenir nous proposons une approche, stratégie de perception, qui fournit une représentation de plus haut niveau des objets considérés, tout en traitant les problèmes locaux d'occultation. Cette approche permet de faire le lien entre des observations locales et une représentation géométrique des objets de la scène, et par conséquent permet de décider comment paramétrer les opérateurs (capteur, traitement, reconnaissance) pour reconstituer une carte complète de la scène. Elle coopère donc avec des traitements bas niveau pour réaliser l'approximation polygonale des objets de la scène. Elle repose sur des techniques de prédiction / vérification d'hypothèses, et du fait des incertitudes dans les mesures et des observations, nous avons utilisé une approche probabiliste basée sur les réseaux bayésiens. Puis nous avons transposé la mécanique bayésienne pour ne garder qu'une notion d'affinité entre primitives résultats. Cette notion ordonne de manière partielle les caractéristiques obtenues ce qui évite l'assignation de probabilités a priori toujours un peu artificielle malgré les techniques d'identification prônées. En ce sens les techniques de décision mises en oeuvre en fin de thèse apparaissent plus réalistes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Giordana, Nathalie. „Segmentation non supervisee d'images multi-spectrales par chaines de markov cachees“. Compiègne, 1996. http://www.theses.fr/1996COMP981S.

Der volle Inhalt der Quelle
Annotation:
Cette these est consacree a la segmentation non supervisee d'images multi-spectrales par chaines de markov cachees et plus particulierement a l'etude de l'etape d'estimation. L'objet de ce travail est de concevoir des methodes permettant d'estimer des melanges de lois generalises. Ces methodes d'estimation fondees sur l'algorithme ice permettent de detecter parmi un ensemble de lois, celles qui sont le plus fideles a la realite et d'estimer les parametres correspondant a chacune des lois detectees. Les etudes comparatives des differentes methodes mises au point avec les methodes classiques em et ice, sur des chaines simulees puis sur des images, montrent l'efficacite des algorithmes generalises. Nous etudions egalement la segmentation multi-spectrale en considerant des canaux independants pour traiter les melanges generalises et des canaux correles dans le cas de melanges gaussiens. Nous mettons ainsi en evidence l'interet ou non de l'ajout de canaux d'observations. Dans ce cadre de la fusion de donnees, nous nous interessons a la theorie de l'evidence. Nous introduisons alors la notion de chaine de markov cachee evidentielle et nous developpons les methodes de segmentation qui lui sont associee. Les etudes effectuees sur des chaines montrent l'interet de cette modelisation mais egalement ses difficultes de mise en uvre dans un cadre non supervisee
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Taton, Benjamin. „Modèle déformable à densité adaptative : application à la segmentation d'images“. Bordeaux 1, 2004. http://www.theses.fr/2004BOR12872.

Der volle Inhalt der Quelle
Annotation:
Les modèles déformables sont un outil classique largement utilisé dans le contexte de l'analyse d'images. L'étude des différentes variantes décrites dans la littérature montrent qu'elles impliquent toujours un compromis entre efficacité et généricité. Si les modèles dédiés à une application particulière sont en général très efficaces et robustes, ils ne sont utilisables que dans des contextes très spécifiques et s'adaptent difficilement à des situations différentes ou inattendues. A l'inverse, les modèles entièrement génériques permettent la reconstruction d'objets de forme arbitraire mais s'accompagnent en contrepartie d'une complexité importante, directement liée à la résolution de l'image à traiter. Le travail présenté dans cette thèse vise à lever cette limitation : un modèle déformable entièrement générique existant est enrichi avec la capacité à adapter localement et automatiquement la finesse de la reconstruction en fonction de la géométrie des objets à reconstruire. De la sorte, l'effort de calcul est concentré dans les régions où il est le plus utile, et la complexité du processus de reconstruction est significativement réduite. Pour y parvenir, les zones importantes de l'image sont artificiellement dilatées en remplaçant la métrique euclidienne de l'espace image par une métrique riemannienne qui étend les distances à leur voisinage. La nouvelle métrique est construite à partir des informations disponibles dans l'image et de sorte que la finesse de l'analyse soit guidée par les caractéristiques géométriques des composantes à reconstruire. Dans cet objectif, les courbures des structures de l'image sont calculées directement à partir de l'image, à l'aide d'un nouvel estimateur précis et robuste. Cet estimateur est validé et comparé aux travaux similaires proposés dans la littérature. Enfin, les capacités du modèle décrit dans cette thèse sont illustrées par des exemples de reconstructions obtenues à partir d'images synthétiques et biomédicales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Loum, Georges L. „Segmentation pyramidale de textures par décomposition en ondelettes“. Paris 12, 1996. http://www.theses.fr/1996PA120021.

Der volle Inhalt der Quelle
Annotation:
Cette these presente une methode de segmentation pyramidale d'images d'aspect texture par decomposition en ondelettes. D'une facon generale, tout processus de segmentation de textures comporte une etape de caracterisation qui precede l'etape de segmentation proprement dite. Notre methode de caracterisation de textures est fondee sur l'interpretation des coefficients de details de la decomposition en ondelettes, comme decrivant les variations locales des niveaux de gris de la texture autour de leur valeur moyenne. Cette interpretation conduit a la definition d'un nouvel attribut, le facteur de forme, qui se calcule sur un nouveau type de voisinage qui possede une structure pyramidale. Pour eprouver la pertinence de ce nouvel attribut, deux algorithmes de classification supervisee de textures sont proposes. Le premier exploite la representation multiresolution de l'analyse par ondelettes pour realiser une caracterisation efficace des textures a plusieurs niveaux de resolution. Le second determine pour chaque texture, un niveau maximal de la decomposition en ondelettes, en definissant un seuil sur les variances des images d'approximation. Ce niveau est utilise pour realiser une preclassification, avant que le processus de classification ne soit conduit a son terme dans chaque classe constituee. Les resultats satisfaisants obtenus par ces deux algorithmes ont valide la methode de caracterisation proposee et demontre la pertinence de l'attribut facteur de forme. La methode de segmentation presentee, tire profit de la forme pyramidale du voisinage sur lequel le facteur de forme est calcule. Cette forme constitue un veritable atout pour un processus de segmentation qui se fonde sur une representation multiresolution des donnees. Elle permet de reduire sensiblement le nombre de pixels de l'image d'attributs representant de zones inter-regions et minimise de ce fait, l'ambiguite sur la localisation precise des frontieres. De plus, les dimensions variables du voisinage pyramidal en fonction du niveau de resolution, suggerent l'elaboration d'un processus de segmentation evoluant suivant une strategie du plus grossier au plus fin: les meilleurs prototypes de chaque classe de texture sont determines a l'aide d'un algorithme qui met en uvre un classificateur flou. Ces prototypes permettent de realiser une segmentation grossiere au niveau de resolution le plus eleve. Cette segmentation primaire est progressivement affinee lors de la descente de la pyramide en dirigeant le processus de segmentation vers les zones de singularites (zones frontalieres ou bruitees). La methode proposee fournit les meilleurs resultats et realise une segmentation sans recouvrement des regions, lorsque la decomposition de l'image est effectuee avec l'ondelette de haar
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Venegas, Martinez Santiago. „Analyse et segmentation de séquences d'images en vue d'une reconnaissance de formes efficace“. Paris 5, 2002. http://www.theses.fr/2002PA05S002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite des problèmes de segmentation spatio-temporelle en images dynamiques. L'objet de cette recherche se situe dans la présentation d'une méthode qui simplifie le calcul de la fonction distance dans la théorie des ensembles de niveau. On propose un processus itératif en deux étapes : une diffusion isotrope suivie d'un opérateur discriminant avec un seuil variant spatialement en fonction de l'image à segmenter. Le principe général est d'assimiler la segmentation à la recherche d'une région par l'évolution d'une courbe
This work presents a computational technique for tracking moving interfaces. For that, a vecursive linear convolving method to performe arisotropic diffusion in images is presented. The novel approach is that there is not need to estimate local and global properties previously of the concerned evolving interface. The method works on a fixed grid, usually the image pixels grid, and automatically handles changes in the topology of the evolving interface
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Dydenko, Igor. „Segmentation dynamique en échocardiographie ultrasonore radiofréquence“. Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0054/these.pdf.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est le développement de techniques de segmentation d'images ultrasonores de radiofréquence (RF) en échographie cardiaque. Le premier aspect de ce travail concerne la détection du produit de contraste ultrasonore. Une méthode paramétrique basée sur l'analyse spectrale autorégressive (AR) a été proposée. Il a été montré sur simulations et images in vitro que l'approche proposée est peu sensible aux variation de concentration et du MI instrumental. Le deuxième aspect de ce travail concerne la segmentation de séquences d'images cardiaques RF. En se basant sur l'analyse AR, il est montré que le contenu spectral du signal RF apporte une information supplémentaire relativement à l'enveloppe seule. Une méthode de segmentation est ensuite proposée, basée sur les ensembles de niveaux couplés avec un recalage affine. La méthode a été validée sur simulations et sur de séquences in vitro, montrant son intérêt pour la segmentation et le suivi du muscle cardiaque
The goal of this Ph. D. Thesis is the development of techniques of radiofrequency (RF) image segmentation in cardiac echography. The first part of this work is dedicated to the detection of ultraound contrast agent. A parametric method based on local spectral autoregressive (AR) analysis of the RF signal is proposed. It is shown on simulations and in vitro images thats the proposed approach is stable with respect to concentration of the agent and the instrumental MI. The second part of the work concerns segmentation of cardiac RF sequences. Based on AR spectral analysis, it is shown that the spectral contents of the RF signal brings complementary information, as compared to the envelope image alone. A segmentation method is subsequently introduced, based on the level set framework coupled with affine registration. The method is validated on numerical simulations as well as on ultrasound in vivo sequences, showing its interest for segmentation and tracking of the cardiac muscle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Masson, Pascale. „Etude d'algorithmes de classification contextuelle et application à la segmentation d'images satellite“. Brest, 1991. http://www.theses.fr/1991BRES2007.

Der volle Inhalt der Quelle
Annotation:
L'étude de la thèse traite du problème de la segmentation d'images dans le cadre de l'approche statistique bayesienne de la décision. En vue d'appliquer une des méthodes locales de segmentation bayesiennes (basées sur une observation spatialement limitée) aux images réelles satellite, sans information à priori sur la nature du terrain de la scène observée, on admet un modèle sous-jacent de l'image intégrant une information locale sur la configuration spatiale des exemplaires de nature de terrain (information sur la forme géométrique des régions de terrain homogène) et sur la texture de l'image. Le problème de la segmentation non supervisée se résume alors a l'estimation d'un mélange de lois d'une famille paramétrique donnée. Nous choisissons d'appliquer l'algorithme sem (de celeux et diebolt) à l'estimation de la loi a priori sur le contexte et des caractéristiques de texture. Nous évaluons les performances futures de la méthode de segmentation contextuelle, avec estimation prealable des paramètres du modèle sous-jacent, en étudiant sur des images simulées l'erreur de classification et la qualité de l'estimateur. Nous comparons les performances théoriques et non supervisées de la méthode contextuelle aux performances de la méthode locale bayesienne la plus simple ne prenant en compte aucune information spatiale. Nous mettons en évidence le cas ou l'apport de l'information spatiales est négligeable et le cas ou il sera très important indépendamment du degré de corrélation de l'observation. Nous montrons l'influence sur les performances de différents paramètres, qui diffèrent suivant le cas de discrimination étudié. Nous appliquons les deux méthodes aux images réelles satellite et nous étudions une mesure de fiabilité d'un résultat de classification baseé uniquement sur l'observation (sans apprentissage des classes)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Vandenbroucke, Nicolas. „Segmentation d'images couleur par classification de pixels dans des espaces d'attributs colorimétriques adaptés : application à l'analyse d'images de football“. Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-404.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de l'analyse d'images de football, nous proposons une methodologie originale de segmentation d'images couleur en regions qui exploite les proprietes colorimetriques des pixels pour extraire de l'image les joueurs a suivre. Les pixels de chaque image sont affectes a differentes classes selon qu'ils representent le terrain, un joueur de l'une des deux equipes, un des deux gardiens de but ou un arbitre en utilisant des methodes classiques de classification de donnees multidimensionnelles fondees sur un apprentissage supervise. La couleur de chaque pixel est usuellement representee sur la base des trois composantes trichromatiques rouge, verte et bleue, mais peut etre codee dans d'autres systemes de representation que nous avons regroupes par familles en fonction de leurs differentes proprietes. L'originalite de notre approche consiste a construire un espace couleur hybride en selectionnant les composantes couleur les mieux adaptees aux classes de pixels a retrouver et pouvant etre issues de differents systemes. Pour cela, nous utilisons une methode d'analyse discriminante associee a des criteres informationnels de discrimination. Cette approche est generalisee en considerant qu'un pixel est represente par des attributs colorimetriques evalues a son voisinage. Il est ainsi possible de proposer une liste d'attributs calcules pour chacune des composantes couleur des systemes de representation. Le voisinage dans lequel sont calcules ces attributs colorimetriques permet de definir une texture couleur et de restituer ainsi les relations de connexite entre les pixels voisins. Les attributs colorimetriques les plus discriminants sont regroupes au sein d'un espace d'attributs colorimetriques adapte a la classification.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Thieu, Quang Tung. „Segmentation by convex active contour models : application to skin lesion and medical images“. Paris 13, 2013. http://www.theses.fr/2013PA132063.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Gaucher, Pierre. „Segmentation d'images numeriques par mesure de proximite de deux pixels adjacents“. Tours, 1992. http://www.theses.fr/1992TOUR4002.

Der volle Inhalt der Quelle
Annotation:
Le problème de la segmentation est tout d'abord abordé sous la forme d'une synthèse qui traite des solutions les plus courantes, basées essentiellement sur l'utilisation de tests d'hypothèses paramétriques. Sur la base de cette synthèse, l'étude menée conduit au développement d'une méthode de segmentation basée sur une approche locale. La démarche adoptée conduit à la définition d'une distance qui prend en compte la dispersion spatiale des pixels sur un voisinage ainsi que celle de leurs niveaux de gris. La définition de cette distance sert de support à l'élaboration d'une procédure d'extraction des plus proches voisins d'un pixel. En recherchant à caractériser la proximité de deux pixels adjacents, nous établissons une analogie entre les phénomènes électrostatiques et le domaine de traitement de l'image. Sur la base de cette analogie, la force exercée par un groupe de pixels. Sur un pixel est définie et conduit à la sélection des attributs caractéristiques de la proximité de deux pixels. Enfin, une règle de décision est établie. Elle s'appuie sur le calcul d'un index de proximité qui rend compte globalement des attributs précédemment extraits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Coquin, Didier. „Segmentation et analyse d'Images pour la classification automatique : application au zooplancton“. Rennes 1, 1991. http://www.theses.fr/1991REN10090.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans les deux grandes disciplines que sont le traitement d'images et la reconnaissance des formes. Le but principal de cette thèse est la recherche de méthodes permettant l'analyse et la classification des individus zooplanctoniques (mensuration, modélisation, identification et comptage), apportant aux biologistes une aide importante dans le dépouillement et l'analyse de milliers d'individus. La segmentation d'images limitée à la binarisation a été choisie, car les objets traités dans le cadre de notre application ne présentent pas de texture. Nous avons développé trois méthodes de binarisation automatique, basées sur des critères locaux, et favorisant l'extraction des objets du fond, quel que soit l'éclairement de la scène. Pour l'extraction des paramètres nous avons retenu des paramètres morphologiques, des paramètres liés à l'inertie expliquée par les axes principaux calculés par rapport à la surface, et la signature polaire de chaque forme. L'extraction de ces paramètres constitue une phase décisive pour la classification des individus. La classification des individus se fait par phases successives, en utilisant une méthode de classification ascendante hiérarchique. La formation de groupes d'individus en sous classes homogènes a permis de créer des modèles, utilisés dans la phase d'identification. La partie identification est basée sur la minimisation de l'erreur quadratique entre la signature polaire de l'individu traité et des modèles auxquels il peut être attribué. Le système décrit permet donc une automatisation de l'analyse d'images, la classification automatique des différentes catégories zooplanctoniques, puis leur identification.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

M'Hiri, Slim. „Segmentation d'images par classification floue fondée sur une approche neuromimétique“. Paris 12, 1996. http://www.theses.fr/1996PA120082.

Der volle Inhalt der Quelle
Annotation:
Cette these presente une nouvelle methode de segmentation d'images par une approche de classification sequentielle neuro-floue. L'algorithme de classification que nous proposons combine les capacites d'apprentissage des modeles neuromimetiques et la souplesse au niveau de la prise de decision offerte par la logique floue. Nous nous sommes aux cartes auto-organisantes de kohonen pour leur proprietes topologiques interessantes dans le cadre de la segmentation d'images. Cette procedure fait appel a des heuristiques ce qui induit d'une part le reglage d'un nombre important de parametres et d'autre part des problemes de convergence. Dans un premier temps nous proposons une contribution a l'amelioration de l'algorithme de kohonen, en presentant une nouvelle regle d'apprentissage. Cette derniere realise l'optimisation iterative d'une fonctionnelle de cout que nous avons definis. Cette regle d'apprentissage est ensuite utilisee afin de definir une nouvelle methode de segmentation d'images non supervisee agissant en deux etapes. Lors de la premiere etape, nous exploitons les proprietes topologiques, conservees par le nouvel algorithme d'apprentissage, afin de deduire le nombre de classes existant dans l'image ainsi que des prototypes pour chaque classe. La deuxieme etape consiste a etiqueter les pels de l'image. Dans un premier temps, nous definissons une nouvelle methode de classification floue a centres mobiles qui constitue une approche region attribuant a chaque pel l'etiquette de la classe a laquelle il appartient. Nous proposons egalement une nouvelle methode adaptative d'extraction de contours en marquant les pels pour lesquels les proprietes topologiques sont mises a defaut spatialement. Nous avons enfin valide la nouvelle methode de segmentation avec des images de natures differentes (image de scene, image scannographique et images echocardiographiques)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Lu, Jun-Wei. „Segmentation d'images couleur et application à la séparation des oignons et des adventices“. Dijon, 2003. http://www.theses.fr/2003DIJOS003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Colantoni, Philippe. „Contribution des structures de données à la segmentation d'images couleur : élaboration d'un outil d'infographie textile“. Saint-Etienne, 1998. http://www.theses.fr/1998STET4013.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est l'approfondissement d'algorithmes de traitement d'images et l'élaboration d'un outil logiciel spécifique réalisant la segmentation des motifs élémentaires d'une image textile. Pour cela, nous avons introduit des descripteurs et une série de filtres de rang propres à l'information colorimétrique. Notre étude sur la segmentation des images couleurs repose sur différentes méthodes, l'analyse colorimétrique de l'image grâce à des méthodes de quantification et l'intégration d'une analyse spatiocolorimétrique de l'image par des méthodes de croissance de régions et de ligne de partage des eaux sur l'image des contours. Cette étape de présegmentation utilise différentes structures de graphes : le graphe d'adjacences des régions (GAR), le line-graph associé au GAR, le graphe d'adjacences des couleurs et les structures hiérarchiques de graphe d'adjacences. Ces structures ont été mises en oeuvre pour le nettoyage du graphe d'adjacences de régions et la partition de celui-ci. Ce graphe est obtenu par la transposition à la couleur de méthodes classiques de traitement d'images - croissance de régions, transformation de la ligne de partage des eaux. Une validation expérimentale de cette approche a été réalisée pour la détection de filtres transparents colorés sur des images de scènes. Enfin est développé et exposé un outil logiciel modulaire intégrant les processus élémentaires de segmentation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Fontaine, Michaël. „Segmentation non supervisée d'images couleur par analyse de la connexité des pixels“. Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-305-306.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la segmentation d'images couleur en régions, nous proposons une méthode originale qui considère que les régions sont définies comme des ensembles de pixels connexes appartenant à une même classe de pixels. Notre approche considère au même titre les propriétés de connexité et les propriétés colorimétriques des pixels afin de construire des classes qui peuvent être non équiprobables. Nous définissons le degré de connexité couleur d'un ensemble de pixels qui est une mesure de la connexité d'un ensemble de pixels dont les couleurs appartiennent à un intervalle de couleurs. Nous supposons que les pixels de chaque région de l'image peuvent être regroupés en une classe de pixels et qu'une classe est un ensemble de pixels dont le degré de connexité couleur présente une valeur remarquablement élevée. Toute la difficulté consiste à identifier ces ensembles. Pour cela, nous définissons une structure de donnée originale, la pyramide des degrés de connexité couleur PDCC, qui recense de manière organisée et hiérarchique les degrés de connexité couleur de tous les ensembles de pixels possibles que peut contenir une image et dont les couleurs appartiennent à des intervalles de couleurs parfaitement définis. Pour des raisons d'implantation, nous ne pouvons construire cette pyramide qu'en tenant compte de deux composantes trichromatiques parmi les trois disponibles. Nous décomposons alors l'image originale en trois images bichromatiques associées respectivement aux couples de composantes (R,G), (G,B) et (B,R) et nous construisons la PDCC pour chacune de ces images. Une méthode d'analyse de chaque PDCC est proposée afin de construire les noyaux des classes présentes dans chaque image bichromatique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie