Thèses sur le sujet « Analyse d'images de document »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Analyse d'images de document.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Analyse d'images de document ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Tochon, Guillaume. « Analyse hiérarchique d'images multimodales ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT100/document.

Texte intégral
Résumé :
Il y a un intérêt grandissant pour le développement d’outils de traitements adaptés aux images multimodales (plusieurs images de la même scène acquises avec différentes caractéristiques). Permettant une représentation plus complète de la scène, ces images multimodales ont de l'intérêt dans plusieurs domaines du traitement d'images, mais les exploiter et les manipuler de manière optimale soulève plusieurs questions. Cette thèse étend les représentations hiérarchiques, outil puissant pour le traitement et l’analyse d’images classiques, aux images multimodales afin de mieux exploiter l’information additionnelle apportée par la multimodalité et améliorer les techniques classiques de traitement d’images. Cette thèse se concentre sur trois différentes multimodalités fréquemment rencontrées dans le domaine de la télédétection. Nous examinons premièrement l’information spectrale-spatiale des images hyperspectrales. Une construction et un traitement adaptés de la représentation hiérarchique nous permettent de produire une carte de segmentation de l'image optimale vis-à-vis de l'opération de démélange spectrale. Nous nous concentrons ensuite sur la multimodalité temporelle, traitant des séquences d’images hyperspectrales. En utilisant les représentations hiérarchiques des différentes images de la séquence, nous proposons une nouvelle méthode pour effectuer du suivi d’objet et l’appliquons au suivi de nuages de gaz chimique dans des séquences d’images hyperspectrales dans le domaine thermique infrarouge. Finalement, nous étudions la multimodalité sensorielle, c’est-à-dire les images acquises par différents capteurs. Nous appuyant sur le concept des tresses de partitions, nous proposons une nouvelle méthodologie de segmentation se basant sur un cadre de minimisation d’énergie
There is a growing interest in the development of adapted processing tools for multimodal images (several images acquired over the same scene with different characteristics). Allowing a more complete description of the scene, multimodal images are of interest in various image processing fields, but their optimal handling and exploitation raise several issues. This thesis extends hierarchical representations, a powerful tool for classical image analysis and processing, to multimodal images in order to better exploit the additional information brought by the multimodality and improve classical image processing techniques. %when applied to real applications. This thesis focuses on three different multimodalities frequently encountered in the remote sensing field. We first investigate the spectral-spatial information of hyperspectral images. Based on an adapted construction and processing of the hierarchical representation, we derive a segmentation which is optimal with respect to the spectral unmixing operation. We then focus on the temporal multimodality and sequences of hyperspectral images. Using the hierarchical representation of the frames in the sequence, we propose a new method to achieve object tracking and apply it to chemical gas plume tracking in thermal infrared hyperspectral video sequences. Finally, we study the sensorial multimodality, being images acquired with different sensors. Relying on the concept of braids of partitions, we propose a novel methodology of image segmentation, based on an energetic minimization framework
Styles APA, Harvard, Vancouver, ISO, etc.
2

Chenoune, Yasmina. « Estimation des déformations myocardiques par analyse d'images ». Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0014/document.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse s'inscrivent dans le contexte du traitement des images cardiaques et l'étude de la fonction contractile du coeur, pour une meilleure compréhension de physiopathologie cardiaque et l'aide au diagnostic. Nous avons implémenté une méthode de segmentation des parois endocardiques sur des ciné-IRM non marquées. Nous avons utilisé une approche fondée sur les ensembles de niveaux, avec une formulation basée-région qui donne des résultats satisfaisants sur des cas sains et pathologiques. Nous avons proposé une méthode pratique pour la quantification des déformations segmentaires afin decaractériser la contractilité myocardique. La méthode a fait l'objet d'une validation clinique par l'expertise de médecins et par comparaison à la méthode HARP sur des IRM marquées. Pour améliorer la précision des mesures, nous avons proposé un algorithme de recalage iconique multimodal IRM/TDM, utilisant la maximisation de l'information culturelle. Nous l'avons appliqué à la localisation de coupes petit-axe dans des volumes TDM avec des résultats encourageants. Ce travail a pour perspective son application à l'obtention de séquences TDM de hautes résolutions spatiale et temporelle
The work presented in this thesis is related to the cardiac images processing and the cardiac contractile function study, for a better comprehension of cardiac physiopathology and diagnosis. We implemented a method for the segmentation of the endocardial walls on standard MRI without tags. We used an approach based on the level set method, with a region-based formulation which gives satisfactory results on healthy and pathological cases. We proposed a practical method for the quantification of the segmental deformations in order to characterize the myocardial contractility. The method was clinically validated by the assesment of doctors and by comparison with the HARP method on tagget MRI. To improve the measurements precision, we proposed an iconic MRI/CT multimodal registration algorithm, using the maximization of the mutual information. We applied it to the localization of short-axis slices in CT volumes with good results. This work has as prospect its application to obtain high spatial and temporal resolutions CT sequences
Styles APA, Harvard, Vancouver, ISO, etc.
3

Alsheh, Ali Maya. « Analyse statistique de populations pour l'interprétation d'images histologiques ». Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Texte intégral
Résumé :
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bertrand, Sarah. « Analyse d'images pour l'identification multi-organes d'espèces végétales ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2127/document.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le cadre de l’ANR ReVeRIES dont l’objectif est d’utiliser les technologies mobiles pour aider l’homme à mieux connaître son environnement et notamment les végétaux qui l’entourent. Plus précisément, le projet ReVeRIES s’appuie sur une application mobile, nommée Folia développée dans le cadre du projet ANR ReVeS, capable de reconnaître les espèces d’arbres et arbustes à partir de photos de leurs feuilles. Ce prototype se différencie des autres outils car il est capable de simuler le comportement du botaniste. Dans le contexte du projet ReVeRIES, nous nous proposons d’aller beaucoup plus loin en développant de nouveaux aspects : la reconnaissance multimodale d’espèces, l’apprentissage par le jeu et les sciences citoyennes. L’objet de cette thèse porte sur le premier de ces trois aspects, à savoir l’analyse d’images d’organes de végétaux en vue de l’identification.Plus précisément, nous considérons les principaux arbres et arbustes, endémiques ou exotiques, que l’on trouve en France métropolitaine. L’objectif de cette thèse est d’étendre l’algorithme de reconnaissance en prenant en compte d’autres organes que la feuille. Cette multi-modalité est en effet essentielle si nous souhaitons que l’utilisateur apprenne et s’entraîne aux différentes méthodes de reconnaissance, pour lesquelles les botanistes utilisent la variété des organes (i.e. les feuilles, les fleurs, les fruits et les écorces). La méthode utilisée par Folia pour la reconnaissance des feuilles étant dédiée, car simulant le botaniste, ne peut s’appliquer directement aux autres organes. Ainsi, de nouveaux verrous se posent, tant au niveau dutraitement des images qu’au niveau de la fusion de données.Une première partie de la thèse a été consacrée à la mise en place de méthodes de traitement d’images pour l’identification des espèces végétales. C’est l’identification des espèces d’arbres à partir d’images d’écorces qui a été étudiée en premier. Les descripteurs développés prennent en compte la structure de l’écorce en s’inspirant des critères utilisés par les botanistes. Les fruits et les fleurs ont nécessité une étape de segmentation avant leur description. Une nouvelle méthode de segmentation réalisable sur smartphone a été développée pour fonctionner sur la grande variabilité des fleurs et des fruits. Enfin, des descripteurs ont été extraits sur les fruits et les fleurs après l’étape de segmentation. Nous avons décidé de ne pas faire de séparation entre les fleurs et les fruits car nous avons montré qu’un utilisateur novice en botanique ne sait pas toujours faire la différence entre ces deux organes sur des arbres dits «d’ornement» (non fruitiers). Pour les fruits et les fleurs, la prédiction n’est pas seulement faite sur les espèces mais aussi sur les genres et les familles, groupes botaniques traduisant d’une similarité entre ces organes.Une deuxième partie de la thèse traite de la combinaison des descripteurs des différents organes que sont les feuilles, les écorces, les fruits et les fleurs. En plus des méthodes de combinaison basiques, nous proposons de prendre en compte la confusion entre les espèces, ainsi que les prédictions d’appartenance aux taxons botaniques supérieurs à l’espèce.Enfin, un chapitre d’ouverture est consacré au traitement de ces images par des réseaux de neurones à convolutions. En effet, le Deep-Learning est de plus en plus utilisé en traitement d’images, notamment appliqué aux organes végétaux. Nous proposons dans ce contexte de visualiser les filtres de convolution extrayant de l’information, afin de faire le lien entre lesinformations extraites par ces réseaux et les éléments botaniques
This thesis is part of the ANR ReVeRIES, which aims to use mobile technologies to help people better understand their environment and in particular the plants that surround them. More precisely, the ReVeRIES project is based on a mobile application called Folia developed as part of the ANR ReVeS project and capable of recognising tree and shrub species based on photos of their leaves. This prototype differs from other tools in that it is able to simulate the behaviour of the botanist. In the context of the ReVeRIES project, we propose to go much further by developing new aspects: multimodal species recognition, learning through play and citizen science. The purpose of this thesis is to focus on the first of these three aspects, namelythe analysis of images of plant organs for identification.More precisely, we consider the main trees and shrubs, endemic or exotic, found in metropolitan France. The objective of this thesis is to extend the recognition algorithm by taking into account other organs in addition to the leaf. This multi-modality is indeed essential if we want the user to learn and practice the different methods of recognition for which botanists use the variety of organs (i.e. leaves, flowers, fruits and bark). The method used by Folia for leaf recognition being dedicated, because simulating the work of a botanist on the leaf, cannot be applied directly to other organs. Thus, new challenges are emerging, both in terms of image processing and data fusion.The first part of the thesis was devoted to the implementation of image processing methods for the identification of plant species. The identification of tree species from bark images was the first to be studied. The descriptors developed take into account the structure of the bark inspired from the criteria used by botanists. Fruits and flowers required a segmentation step before their description. A new segmentation method that can be used on smartphones has been developed to work in spite of the high variability of flowers and fruits. Finally, descriptors were extracted on fruits and flowers after the segmentation step. We decided not to separate flowers and fruits because we showed that a user new to botany does not always know the difference between these two organs on so-called "ornamental" trees (not fruit trees). For fruits and flowers, prediction is not only made on their species but also on their genus and family, botanical groups reflecting a similarity between these organs.The second part of the thesis deals with the combination of descriptors of the different organs: leaves, bark, fruits and flowers. In addition to basic combination methods, we propose to consider the confusion between species, as well as predictions of affiliations in botanical taxa higher than the species.Finally, an opening chapter is devoted to the processing of these images by convolutional neural networks. Indeed, Deep Learning is increasingly used in image processing, particularly for plant organs. In this context, we propose to visualize the learned convolution filters extracting information, in order to make the link between the information extracted by these networks and botanical elements
Styles APA, Harvard, Vancouver, ISO, etc.
5

Foare, Marion. « Analyse d'images par des méthodes variationnelles et géométriques ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM043/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et à la résolution numérique du problème de Mumford-Shah avec anisotropie pour la restauration et la segmentation d'image. Cette fonctionnelle possède en effet la particularité de reconstruire une image dégradée tout en extrayant l'ensemble des contours des régions d'intérêt au sein de l'image. Numériquement, on utilise l'approximation d'Ambrosio-Tortorelli pour approcher un minimiseur de la fonctionnelle de Mumford-Shah. Elle Gamma-converge vers cette dernière et permet elle aussi d'extraire les contours. Les implémentations avec des schémas aux différences finies ou aux éléments finis sont toutefois peu adaptées pour l'optimisation de la fonctionnelle d'Ambrosio-Tortorelli. On présente ainsi deux nouvelles formulations discrètes de la fonctionnelle d'Ambrosio-Tortorelli à l'aide des opérateurs et du formalisme du calcul discret. Ces approches sont utilisées pour la restauration d'images ainsi que pour le lissage du champ de normales et la détection de saillances des surfaces digitales de l'espace. Nous étudions aussi un second problème d'optimisation de forme similaire avec conditions aux bords de Robin. Nous démontrons dans un premier temps l'existence et la régularité partielle des solutions, et dans un second temps deux approximations par Gamma-convergence pour la résolution numérique du problème. L'analyse numérique montre une nouvelle fois les difficultés rencontrées pour la minimisation d'approximations par Gamma-convergence
In this work, we study both theoretical and numerical aspects of an anisotropic Mumford-Shah problem for image restoration and segmentation. The Mumford-Shah functional allows to both reconstruct a degraded image and extract the contours of the region of interest. Numerically, we use the Amborsio-Tortorelli approximation to approach a minimizer of the Mumford-Shah functional. It Gamma-converges to the Mumford-Shah functional and allows also to extract the contours. However, the minimization of the Ambrosio-Tortorelli functional using standard discretization schemes such as finite differences or finite elements leads to difficulties. We thus present two new discrete formulations of the Ambrosio-Tortorelli functional using the framework of discrete calculus. We use these approaches for image restoration and for the reconstruction of normal vector field and feature extraction on digital data. We finally study another similar shape optimization problem with Robin boundary conditions. We first prove existence and partial regularity of solutions and then construct and demonstrate the Gamma-convergence of two approximations. Numerical analysis shows once again the difficulties dealing with Gamma-convergent approximations
Styles APA, Harvard, Vancouver, ISO, etc.
6

Nguyen, Thanh Phuong. « Etude des courbes discrètes : applications en analyse d'images ». Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10095/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à l'étude des courbes discrètes et ses applications en analyse d'images. Nous avons proposé une amélioration de l'estimation de courbure reposant sur le cercle circonscrit. Celle-ci repose sur la notion de segment flou maximal d'épaisseur [nu] et sur la décomposition d'une courbe discrète en sa séquence de segments flous maximaux. Par la suite, nousavons appliqué cette idée en 3D afin d'estimer la courbure et la torsion discrète en chaque point d'une courbe 3D. Au niveau de l'application, nous avons développé une méthode rapide et fiable pour détecter les points dominants dans une courbe 2D. Un point dominant est un point dont la courbure est localement maximale. Les points dominants jouent un rôle très important dans la reconnaissance de formes. Notre méthode utilise un paramètre qui est l'épaisseur des segments flous maximaux. Reposant sur cette nouvelle méthode de détection des points dominants, nous avons développé des méthodes sans paramètres de détection des points dominants. Celles-ci se basent sur une approche multi-épaisseur. D'autre part, nous nous intéressons particulièrement au cercles et arcs discrets. Une méthode linéaire a été développé pour reconnaître des cercles et arcs discrets. Puisnous avons fait évoluer cette méthode afin de travailler avec des courbes bruitées en utilisant une méthode de détection du bruit. Nous proposons aussi une mesure de circularité. Une méthode linéaire qui utilise cette mesure a été aussi développée pour mesurer la circularité des courbes fermées. Par ailleurs, nous avons proposé une méthode rapide pour décomposer des courbes discrètes en arcs et en segments de droite
In this thesis, we are interested in the study of discrete curves and its applications in image analysis. We have proposed an amelioration of curvature estimation based on circumcircle. This method is based on the notion of blurred segment of width [nu] and on the decomposition of a curve into the sequence of maximal blurred segment of width [nu]. Afterwards, we have applied this idea in 3D to estimate the discrete curvature and torsion at each point of a 3D curve. Concerning the applications, we have developed a rapid et reliable method to detect dominant points of a 2D curve. A dominant point is a point whose the curvature value is locally maximum. The dominant points play an important role in pattern recognition. Our method uses a parameter: the width of maximal blurred segments. Based on this novel method of dominant point detection, we proposed free-parameter methods for polygonal representation. They are based on a multi-width approach. Otherwise, we are interested in discrete arcs and circles. A linear method has been proposed for the recognition of arcs and circles. We then develop a new method for segmentation of noisy curves into arcs based on a method of noise detection. We also proposed a linear method to measure the circularity of closed curves. In addition, we have proposed a robust method to decompose a curve into arcs and line segments
Styles APA, Harvard, Vancouver, ISO, etc.
7

Harouna, Seybou Aboubacar. « Analyse d'images couleurs pour le contrôle qualité non destructif ». Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2282/document.

Texte intégral
Résumé :
La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance
Color is a major criterion for many sectors to identify, to compare or simply to control the quality of products. This task is generally assumed by a human operator who performs a visual inspection. Unfortunately, this method is unreliable and not repeatable due to the subjectivity of the operator. To avoid these limitations, a RGB camera can be used to capture and extract the photometric properties. This method is simple to deploy and permits a high speed control. However, it's very sensitive to the metamerism effects. Therefore, the reflectance measurement is the more reliable solution to ensure the conformity between samples and a reference. Thus in printing industry, spectrophotometers are used to measure uniform color patches printed on a lateral band. For a control of the entire printed surface, multispectral cameras are used to estimate the reflectance of each pixel. However, they are very expensive compared to conventional cameras. In this thesis, we study the use of an RGB camera for the spectral reflectance estimation in the context of printing. We propose a complete spectral description of the reproduction chain to reduce the number of measurements in the training stages and to compensate for the acquisition limitations. Our first main contribution concerns the consideration of the colorimetric limitations in the spectral characterization of a camera. The second main contribution is the exploitation of the spectral printer model in the reflectance estimation methods
Styles APA, Harvard, Vancouver, ISO, etc.
8

Séropian, Audrey. « Analyse de document et identification de scripteurs ». Toulon, 2003. http://www.theses.fr/2003TOUL0010.

Texte intégral
Résumé :
Le thème de notre étude se limite à des formulaires dont certains champs sont remplis à l'aide d'une écriture manuscrite. Après avoir élaboré un modèle de formulaire utilisable dans le contexte d'un nombre fini de scripteurs, notre but est ici de créer un module d'identification de scripteur par analyse fractale du style. L'identification de chaque scripteur repose sur l'extraction d'un ensemble de caractéristiques qui doivent être propres à l'auteur du document. Les propriétés d'autosimilarité dans l'écriture sont exploitées. Pour cela, des formes invariantes caractérisant l'écriture d'un scripteur sont extraites au cours d'un processus de compression fractale. Ces formes sont organisées dans une base de référence permettant d'analyser une écriture inconnue dans un processus de Pattern Matching. Les résultats de l'analyse sont évalués par le rapport signal/bruit. Ainsi, il permet en fonction d'un ensemble de bases de référence, d'identifier Fauteur d'un texte
The axe of our study is limited to forms some areas of which are filled by cursive handwriting. After we elaborated a model of form used in a context of finite number of writers, our aim is here to create a process of identification of writer through fractal analysis of handwritten style writer. The identification of each writer depends on the extraction of a set of features that have to be intrinsic of the author of the document. The properties of autosimilarity in the handwriting are used. Some invariant patterns are extracted by the process of fractal compression to characterize the handwriting of the writer. These patterns are organized in a reference base to allow the analyse of an unknown handwriting through a Pattern matching process. The results of this analyze are evaluated by the signal to noise ratio. We can identify the text of a writer that we look for the identity of the author according to the set of reference bases
Styles APA, Harvard, Vancouver, ISO, etc.
9

Amur, Khua Bux. « Contrôle adaptatif, techniques de régularisation et applications en analyse d'images ». Thesis, Metz, 2011. http://www.theses.fr/2011METZ011S/document.

Texte intégral
Résumé :
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik
An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
Styles APA, Harvard, Vancouver, ISO, etc.
10

Alvarez, padilla Francisco Javier. « AIMM - Analyse d'Images nucléaires dans un contexte Multimodal et Multitemporel ». Thesis, Reims, 2019. http://www.theses.fr/2019REIMS017/document.

Texte intégral
Résumé :
Ces travaux de thèse portent sur la proposition de stratégies de segmentation des tumeurs cancéreuses dans un contexte multimodal et multitemporel. La multimodalité fait référence au couplage de données TEP/TDM pour exploiter conjointement les deux sources d’information pour améliorer les performances de la segmentation. La multitemporalité fait référence à la disposition des images acquises à différents dates, ce qui limite une correspondance spatiale possible entre elles.Dans une première méthode, une structure arborescente est utilisée pour traiter et pour extraire des informations afin d’alimenter une segmentation par marche aléatoire. Un ensemble d'attributs est utilisé pour caractériser les nœuds de l'arbre, puis le filtrer et projeter des informations afin de créer une image vectorielle. Un marcheur aléatoire guidé par les données vectorielles provenant de l'arbre est utilisé pour étiqueter les voxels à des fins de segmentation.La deuxième méthode traite le problème de la multitemporalité en modifiant le paradigme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modélisés à partir de la TEP et de la TDM avec injection de contraste pour comparer leurs nœuds par une différence entre leurs attributs et ainsi correspondre à ceux considérés comme similaires en supprimant ceux qui ne le sont pas.Dans une troisième méthode, qui est une extension de la première, l'arbre calculé à partir de l'image est directement utilisé pour mettre en œuvre l'algorithme développé. Une structure arborescente est construite sur la TEP, puis les données TDM sont projetées sur l’arbre en tant qu’informations contextuelles. Un algorithme de stabilité de nœud est appliqué afin de détecter et d'élaguer les nœuds instables. Des graines, extraites de la TEP, sont projetées dans l'arbre pour fournir des étiquettes (pour la tumeur et le fond) à ses nœuds correspondants et les propager au sein de la hiérarchie. Les régions évaluées comme incertaines sont soumises à une méthode de marche aléatoire vectorielle pour compléter l'étiquetage de l'arbre et finaliser la segmentation
This work focuses on the proposition of cancerous tumor segmentation strategies in a multimodal and multitemporal context. Multimodal scope refers to coupling PET/CT data in order to jointly exploit both information sources with the purpose of improving segmentation performance. Multitemporal scope refers to the use of images acquired at different dates, which limits a possible spatial correspondence between them.In a first method, a tree is used to process and extract information dedicated to feed a random walker segmentation. A set of region-based attributes is used to characterize tree nodes, filter the tree and then project data into the image space for building a vectorial image. A random walker guided by vectorial tree data on image lattice is used to label voxels for segmentation.The second method is geared toward multitemporality problem by changing voxel-to-voxel for node-to-node paradigm. A tree structure is thus applied to model two hierarchical graphs from PET and contrast-enhanced CT, respectively, and compare attribute distances between their nodes to match those assumed similar whereas discarding the others.In a third method, namely an extension of the first one, the tree is directly involved as the data-structure for algorithm application. A tree structure is built on the PET image, and CT data is then projected onto the tree as contextual information. A node stability algorithm is applied to detect and prune unstable attribute nodes. PET-based seeds are projected into the tree to assign node seed labels (tumor and background) and propagate them by hierarchy. The uncertain nodes, with region-based attributes as descriptors, are involved in a vectorial random walker method to complete tree labeling and build the segmentation
Styles APA, Harvard, Vancouver, ISO, etc.
11

Faivre, Adrien. « Analyse d'image hyperspectrale ». Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD075/document.

Texte intégral
Résumé :
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence
This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library
Styles APA, Harvard, Vancouver, ISO, etc.
12

Nicodeme, Claire. « Evaluation de l'adhérence au contact roue-rail par analyse d'images spectrales ». Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM024/document.

Texte intégral
Résumé :
L’avantage du train depuis sa création est sa faible résistance à l’avancement du fait du contact fer-fer de la roue sur le rail conduisant à une adhérence réduite. Cependant cette adhérence faible est aussi un inconvénient majeur : étant dépendante des conditions environnementales, elle est facilement altérée lors d’une pollution du rail (végétaux, corps gras, eau, etc.). Aujourd’hui, les mesures prises face à des situations d'adhérence dégradée impactent directement les performances du système et conduisent notamment à une perte de capacité de transport. L’objectif du projet est d’utiliser les nouvelles technologies d’imagerie spectrale pour identifier sur les rails les zones à adhérence réduite et leur cause afin d’alerter et d’adapter rapidement les comportements. La stratégie d’étude a pris en compte les trois points suivants : • Le système de détection, installé à bord de trains commerciaux, doit être indépendant du train. • La détection et l’identification ne doivent pas interagir avec la pollution pour ne pas rendre la mesure obsolète. Pour ce faire le principe d’un Contrôle Non Destructif est retenu. • La technologie d’imagerie spectrale permet de travailler à la fois dans le domaine spatial (mesure de distance, détection d’objet) et dans le domaine fréquentiel (détection et reconnaissance de matériaux par analyse de signatures spectrales). Dans le temps imparti des trois ans de thèse, nous nous sommes focalisés sur la validation du concept par des études et analyses en laboratoire, réalisables dans les locaux de SNCF Ingénierie & Projets. Les étapes clés ont été la réalisation d’un banc d’évaluation et le choix du système de vision, la création d'une bibliothèque de signatures spectrales de référence et le développement d'algorithmes classification supervisées et non supervisées des pixels. Ces travaux ont été valorisés par le dépôt d'un brevet et la publication d'articles dans des conférences IEEE
The advantage of the train since its creation is in its low resistance to the motion, due to the contact iron-iron of the wheel on the rail leading to low adherence. However this low adherence is also a major drawback : being dependent on the environmental conditions, it is easily deteriorated when the rail is polluted (vegetation, grease, water, etc). Nowadays, strategies to face a deteriorated adherence impact the performance of the system and lead to a loss of transport capacity. The objective of the project is to use a new spectral imaging technology to identify on the rails areas with reduced adherence and their cause in order to quickly alert and adapt the train's behaviour. The study’s strategy took into account the three following points : -The detection system, installed on board of commercial trains, must be independent of the train. - The detection and identification process should not interact with pollution in order to keep the measurements unbiased. To do so, we chose a Non Destructive Control method. - Spectral imaging technology makes it possible to work with both spatial information (distance’s measurement, target detection) and spectral information (material detection and recognition by analysis of spectral signatures). In the assigned time, we focused on the validation of the concept by studies and analyses in laboratory, workable in the office at SNCF Ingénierie & Projets. The key steps were the creation of the concept's evaluation bench and the choice of a Vision system, the creation of a library containing reference spectral signatures and the development of supervised and unsupervised pixels classification. A patent describing the method and process has been filed and published
Styles APA, Harvard, Vancouver, ISO, etc.
13

Corvo, Joris. « Caractérisation de paramètres cosmétologiques à partir d'images multispectrales de peau ». Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM100/document.

Texte intégral
Résumé :
Grâce aux informations spatiales et spectrales qu'elle apporte, l'imagerie multispectrale de la peau est devenue un outil incontournable de la dermatologie. Cette thèse a pour objectif d'évaluer l’intérêt de cet outil pour la cosmétologie à travers trois études : la détection d'un fond de teint, l'évaluation de l'âge et la mesure de la rugosité.Une base d'images multispectrales de peau est construite à l'aide d'un système à multiples filtres optiques. Une phase de prétraitement est nécessaire à la standardisation et à la mise en valeur de la texture des images.Les matrices de covariance des acquisitions peuvent être représentées dans un espace multidimensionnel, ce qui constitue une nouvelle approche de visualisation de données multivariées. De même, une nouvelle alternative de réduction de la dimensionnalité basée sur l'ACP est proposée dans cette thèse. L'analyse approfondie de la texture des images multispectrales est réalisée : les paramètres de texture issus de la morphologie mathématique et plus généralement de l'analyse d'images sont adaptés aux images multivariées. Dans cette adaptation, plusieurs distances spectrales sont expérimentées, dont une distance intégrant le modèle LIP et la métrique d'Asplünd.Les résultats des prédictions statistiques générées à partir des données de texture permettent de conclure quant à la pertinence du traitement des données et de l'utilisation de l'imagerie multispectrale pour les trois études considérées
Thanks to its precision in spatial and spectral domain, multispectral imaging has become an essential tool in dermatology. This thesis focuses on the interest of this technology for cosmetological parameters assessment through three different studies: the detection of a foundation make-up, age assessment and roughness measurement.A database of multispectral skin images is build using a multiple optical filters system. A preprocessing step allows to standardize those texture images before their exploitation.Covariance matrices of mutispectral acquisitions can be displayed in a multidimensional scaling space which is a novel way to represent multivariate data sets. Likewise, a new dimensionality reduction algorithm based on PCA is proposed in this thesis.A complete study of the images texture is performed: texture features from mathematical morphology and more generally from image analysis are expanded to the case of multivariate images. In this process, several spectral distances are tested, among which a new distance associating the LIP model to the Asplund metric.Statistical predictions are generated from texture data. Thoses predictions lead to a conclusion about the data processing efficiency and the relevance of multispectral imaging for the three cosmetologic studies
Styles APA, Harvard, Vancouver, ISO, etc.
14

Wang, Jinnian. « Caractérisation des sols par l'analyse d'images hyperspectrales en télédétection ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4051/document.

Texte intégral
Résumé :
Les images hyperspectrales fournissent des informations intéressantes quant à la composition des sols, en particulier au niveau minéral, ce qui permet de caractériser efficacement les « groupements de minerai » et les « minerais isolés ». Ce travail de recherche avait pour objectif d'établir un système de cartographie 3D des minerais qui intègre des informations de surfaces (acquises par satellite ou à partir d'un aéronef) et des informations souterraines (par forages) à partir de données hyperspectrales. Le travail décrit dans ce mémoire s'articule de la manière suivante :- Pour la cartographie de surface, nous avons développé et optimisé des algorithmes pour mesurer de manière à la fois précise et homogène au niveau des transitions, le taux de minerais à toutes les longueurs d'ondes (de 0.2 à 12m) à partir de l'imagerie hyperspectrale par satellite et aéroportée. Un travail a été également fait à ce sujet pour améliorer la correction atmosphérique. Nous avons utilisé le modèle de BRDF de Hapke pour étudier la composition, linéaire et non linéaire, des modèles spectres- Pour la cartographie minéralogique souterraine, nous avons développé un système que nous avons appelé Field Imaging Spectrometer System (FISS), dont le verrou scientifique était dans le calcul et la mise en oeuvre de la précision sur les produits minéraux recherchés.- Nous avons mis cela en application par la suite, de manière à mieux comprendre le système minéral, et ce à partir de méthode utilisant les données hyperspectrales. Pour cela, nous avons utilisé les Systèmes d'Information Géographique (SIG), ce qui nous a permis de produire des simulations relatives à l'exploitation minière
Hyperspectral remote sensing has been used successfully to identify and map abundances and compositional difference of mineral groups and single mineral phases. This research will toward developing a 3D mineral mapping system that integrate surface (airborne and satellite) and subsurface (drill core) hyperspectral remote sensing data and carries it into quantitative mineral systems analysis. The main content and result is introduced as follows:- For Surface mineralogy mapping, we have developed and optimized the processing methods for accurate, seamless mineral measurements using Airborne and Satellite hyperspectral image. This requires solutions for unmixing background effects from target minerals to leave residual scaled mineral abundances equivalent to vegetation-free pixels. Another science challenge is to improve the atmospheric correction. Also Hapke BRDF model is used on the study in the linear and nonlinear mineral spectral mixing models.- For the subsurface mineralogy mapping, we have developed Field Imaging Spectrometer System (FISS) and Drill Core Logging for the subsurface mineralogy mapping, the Key science challenges will be establishing the accuracy of derived mineral products through associated laboratory analysis, including investigations from SWIR into the thermal infrared for measuring minerals.- The 3D mineral maps derived from hyperspectral methods can distinctly improve our understanding of mineral system. We use GIS system integrating surface and subsurface mineralogy mapping, with 3D mineral models for demonstration exploitation of economic mineral deposits in test site
Styles APA, Harvard, Vancouver, ISO, etc.
15

Delalandre, Mathieu. « Analyse des documents graphiques : une approche par reconstruction d'objets ». Rouen, 2005. http://www.theses.fr/2005ROUES060.

Texte intégral
Résumé :
Les travaux de cette thèse concernent l'analyse des documents graphiques (plans, cartes, diagrammes,. . . ). Ces derniers répondent à de fortes relations spatiales, aussi les systèmes d'analyse s'appuient généralement sur des approches structurelles. Celles-ci reposent sur l'extraction de primitives graphiques à partir des documents et l'organisation de ces primitives au sein de structures de type graphe. Dans ce manuscrit, nous abordons plus particulièrement la problématique de la combinaison des opérateurs d'extraction. La principale difficulté en est l'échange des primitives graphiques entre les opérateurs. Nous proposons pour cela une approche originale par reconstruction d'objets. Nous présentons tout d'abord nos opérateurs d'extraction de primitives graphiques par approches région, contour et squelette. Nous développons ensuite un formalisme objet permettant la multi-représentation des formes graphiques. Nous illustrons comment les opérateurs mettent en oeuvre ce formalisme afin d'assurer l'échange des primitives graphiques, et donc leur interopérabilité. Nous utilisons nos opérateurs et ce formalisme via notre système de reconstruction d'objets. Celui-ci exploite une méthodologie objet pour la formalisation de stratégies de reconstruction et un moteur de contrôle pour leur mise en oeuvre. Nous illustrons l'intérêt (adaptabilité et performance) de notre approche au travers de quelques cas d'usage de reconnaissance de symboles sur des images de documents graphiques.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Khalid, Musaab. « Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S019/document.

Texte intégral
Résumé :
Dans cette thèse, on s’intéresse à l’application du domaine de la vision par ordinateur à la vélocimétrie de surface des rivières. Les hydrauliciens utilisent déjà plusieurs routines de traitement d’images pour traiter des vidéos de rivières. Le but ultime est d’estimer la vitesse surfacique d’un cours d’eau par une méthode sans contact. Cela permet aux chercheurs d’éviter les risques liés au jaugeage intrusif des rivières, notamment en période de crue. Dans ce but, deux enjeux sont à prendre en compte. Tout d’abord, le mouvement apparent de la rivière dans l’espace image doit être estimé. Ensuite, ce mouvement, estimé en pixels par unité de temps, doit être transformé en une vitesse réelle exprimée en mètres par seconde par exemple. Jusqu’au présent, les méthodes de vélocimétrie par images imposent quelques contraintes sur les séquences pour qu’elles soient exploitables (notamment une caméra fixe et le besoin de la présence physique des équipes hydrauliques au site de jaugeage avant ou après l’événement). Dans cette thèse, on vise à élargir ce périmètre en incluant les vidéos prises par des amateurs (c’est à dire de paramètres inconnus, et avec un mouvement potentiel de la caméra) tout en présentant de meilleures solutions pour les enjeux précédemment mentionnés
This thesis is an application of computer vision findings to river velocimetry research. Hydraulic research scientists already use various image processing techniques to process image sequences of rivers. The ultimate goal is to estimate free surface velocity of rivers remotely. As such, many risks related to intrusive river gauging techniques could be avoided. Towards this goal, there are two major issues need be addressed. Firstly, the motion of the river in image space need to be estimated. The second issue is related to how to transform this image velocity to real world velocity. Until recently, imagebased velocimetry methods impose many requirements on images and still need considerable amount of field work to be able to estimate rivers velocity with good accuracy. We extend the perimeter of this field by including amateur videos of rivers and we provide better solutions for the aforementioned issues. We propose a motion estimation model that is based on the so-called optical flow, which is a well developed method for rigid motion estimation in image sequences. Contrary to conventional techniques used before, optical flow formulation is flexible enough to incorporate physics equations that govern rivers motion. Our optical flow is based on the scalar transport equation and is augmented with a weighted diffusion term to compensate for small scale (non-captured) contributions. Additionally, since there is no ground truth data for such type of image sequences, we present a new evaluation method to assess the results. It is based on trajectory reconstruction of few Lagrangian particles of interest and a direct comparison against their manually-reconstructed trajectories. The new motion estimation technique outperformed traditional methods in image space. Finally, we propose a specialized geometric modeling of river sites that allows complete and accurate passage from 2D velocity to world velocity, under mild assumptions. This modeling considerably reduces the field work needed before to deploy Ground Reference Points (GRPs). We proceed to show the results of two case studies in which world velocity is estimated from raw videos
Styles APA, Harvard, Vancouver, ISO, etc.
17

Faucheux, Cyrille. « Segmentation supervisée d'images texturées par régularisation de graphes ». Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4050/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à un récent algorithme de segmentation d’images basé sur un processus de régularisation de graphes. L’objectif d’un tel algorithme est de calculer une fonction indicatrice de la segmentation qui satisfait un critère de régularité ainsi qu’un critère d’attache aux données. La particularité de cette approche est de représenter les images à l’aide de graphes de similarité. Ceux-ci permettent d’établir des relations entre des pixels non-adjacents, et ainsi de procéder à un traitement non-local des images. Afin d’en améliorer la précision, nous combinons cet algorithme à une seconde approche non-locale : des caractéristiques de textures. Un nouveau terme d’attache aux données est dans un premier temps développé. Inspiré des travaux de Chan et Vese, celui-ci permet d’évaluer l’homogénéité d’un ensemble de caractéristiques de textures. Dans un second temps, nous déléguons le calcul de l’attache aux données à un classificateur supervisé. Entrainé à reconnaitre certaines classes de textures, ce classificateur permet d’identifier les caractéristiques les plus pertinentes, et ainsi de fournir une modélisation plus aboutie du problème. Cette seconde approche permet par ailleurs une segmentation multiclasse. Ces deux méthodes ont été appliquées à la segmentation d’images texturées 2D et 3D
In this thesis, we improve a recent image segmentation algorithm based on a graph regularization process. The goal of this method is to compute an indicator function that satisfies a regularity and a fidelity criteria. Its particularity is to represent images with similarity graphs. This data structure allows relations to be established between similar pixels, leading to non-local processing of the data. In order to improve this approach, combine it with another non-local one: the texture features. Two solutions are developped, both based on Haralick features. In the first one, we propose a new fidelity term which is based on the work of Chan and Vese and is able to evaluate the homogeneity of texture features. In the second method, we propose to replace the fidelity criteria by the output of a supervised classifier. Trained to recognize several textures, the classifier is able to produce a better modelization of the problem by identifying the most relevant texture features. This method is also extended to multiclass segmentation problems. Both are applied to 2D and 3D textured images
Styles APA, Harvard, Vancouver, ISO, etc.
18

Chen, Yong. « Analyse et interprétation d'images à l'usage des personnes non-voyantes : application à la génération automatique d'images en relief à partir d'équipements banalisés ». Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080046/document.

Texte intégral
Résumé :
L’information visuelle est une source d’information très riche à laquelle les non-voyants et mal voyants (ou Personnes Aveugles et Malvoyantes : PAM) n’ont pas toujours accès. La présence des images constitue un réel handicap pour les PAM. Une transcription de ces images en relief peut augmenter leur accessibilité aux PAM. En prenant en compte les aspects de la cognition tactile chez les non-voyants, les règles, et les recommandations de la conception d’une image en relief, nous avons orienté notre travail sur les analyses et les comparaisons des techniques de traitement d’image numérique pour trouver les méthodes adaptées afin de créer une procédure automatique de création d’images en relief. A la fin de ce travail, nous avons testé les images en relief créées avec des non-voyants. Deux points importants ont été évalués :  Le taux de compréhension d’une image en relief ; Le temps d’exploration nécessaire.Les résultats suggèrent que les images faites par ce système sont accessibles pour les non-voyants braillistes. Le système implémenté peut être considéré comme un outil efficace de création d’image en relief :  Le système propose une possibilité de généraliser et formaliser la procédure de création d'image en relief ;  Le système donne une solution très rapide et facile.Le système peut traiter des images pédagogiques avec du contenu sémantique simplifié. Il peut donc être utilisé dans de nombreux cas d’utilisation. Par exemple, il peut être utilisé comme un outil pratique pour rendre accessible les images numériques. Il permet aussi la coopération avec d’autres modalités de présentation d’image au non-voyant, par exemple avec une carte interactive classique
Visual information is a very rich source of information to which blind and visually impaired people (BVI) not always have access. The presence of images is a real handicap for the BVI. The transcription into an embossed image may increase the accessibility of an image to BVI. Our work takes into account the aspects of tactile cognition, the rules and the recommendations for the design of an embossed image. We focused our work on the analysis and comparison of digital image processing techniques in order to find the suitable methods to create an automatic procedure for embossing images. At the end of this research, we tested the embossed images created by our system with users with blindness. In the tests, two important points were evaluated:  The degree of understanding of an embossed image; The time required for exploration.The results suggest that the images made by this system are accessible to blind users who know braille. The implemented system can be regarded as an effective tool for the creation of an embossed image. The system offers an opportunity to generalize and formalize the procedure for creating an embossed image. The system gives a very quick and easy solution.The system can process pedagogical images with simplified semantic contents. It can be used as a practical tool for making digital images accessible. It also offers the possibility of cooperation with other modalities of presentation of the image to blind people, for example a traditional interactive map
Styles APA, Harvard, Vancouver, ISO, etc.
19

Diaz, Mauricio. « Analyse de l'illumination et des propriétés de réflectance en utilisant des collections d'images ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM051/document.

Texte intégral
Résumé :
L'utilisation de collections d'images pour les applications de vision par ordinateur devient de plus en plus commune des nos jours. L'objectif principal de cette thèse est d'exploiter et d'extraire des informations importantes d'images de scènes d'extérieur a partir de ce type de collections : l'illumination présente au moment de la prise, les propriétés de reflectance des matériaux composant les objets dans la scène et les propriétés radiométriques des appareils photo utilisés. Pour atteindre notre objectif, cette thèse est composée de deux parties principales. Dans un premier temps nous allons réaliser une analyse de différentes représentations du ciel et une comparaison des images basée sur l'apparence de celui-ci. Une grande partie de l'information visuelle perçue dans les images d'extérieures est due a l'illumination en provenance du ciel. Ce facteur est représenté par les rayons du soleil réfléchis et réfractés dans l'atmosphère en créant une illumination globale de l'environnement. En même temps cet environnement détermine la façon de percevoir les objets du monde réel. Etant donné l'importance du ciel comme source d'illumination, nous formulons un processus générique en trois temps, segmentation, modélisation et comparaison des pixels du ciel, pour trouver des images similaires en se basant sur leurs apparences. Différentes méthodes sont adoptées dans les phases de modélisation et de comparaison. La performance des algorithmes est validée en trouvant des images similaires dans de grandes collections de photos. La deuxième partie de cette thèse consiste a exploiter l'information géométrique additionnelle pour en déduire les caractéristiques photométriques de la scène. A partir d'une structure 3D récupérée en utilisant des méthodes disponibles, nous analysons le processus de formation de l'image a partir de modèles simples, puis nous estimons les paramètres qui les régissent. Les collections de photos sont généralement capturées par différents appareils photos, d'où l'importance d'insister sur leur calibrage radiométrique. Notre formulation estime cet étalonnage pour tous les appareils photos en même temps, en utilisant une connaissance a priori sur l'espace des fonctions de réponse des caméras possibles. Nous proposons ensuite, un cadre d'estimation conjoint pour calculer une représentation de l'illumination globale dans chaque image, l'albedo de la surface qui compose la structure 3D et le calibrage radiométrique pour tous les appareils photos
The main objective of this thesis is to exploit the photometric information avail- able in large photo collections of outdoor scenes to infer characteristics of the illumination, the objects and the cameras. To achieve this goal two problems are addressed. In a preliminary work, we explore opti- mal representations for the sky and compare images based on its appearance. Much of the information perceived in outdoor scenes is due to the illumination coming from the sky. The solar beams are reflected and refracted in the atmosphere, creating a global illumination ambiance. In turn, this environment determines the way that we perceive objects in the real world. Given the importance of the sky as an illumination source, we formulate a generic 3–step process in order to compare images based on its appearance. These three stages are: segmentation, modeling and comparing of the sky pixels. Different approaches are adopted for the modeling and comparing phases. Performance of the algorithms is validated by finding similar images in large photo collections. A second part of the thesis aims to exploit additional geometric information in order to deduce the photometric characteristics of the scene. From a 3D structure recovered using available multi–view stereo methods, we trace back the image formation process and estimate the models for the components involved on it. Since photo collections are usually acquired with different cameras, our formulation emphasizes the estimation of the radiometric calibration for all the cameras at the same time, using a strong prior on the possible space of camera response functions. Then, in a joint estimation framework, we also propose a robust computation of the global illumination for each image, the surface albedo for the 3D structure and the radiometric calibration for all the cameras
Styles APA, Harvard, Vancouver, ISO, etc.
20

Handika, Nuraziz. « Multi-fissuration des structures en béton armé : analyse par corrélation d'images et modélisation ». Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0001/document.

Texte intégral
Résumé :
La modélisation de la fissuration du béton armé à l'aide de la méthode des éléments finis nécessite de prendre en compte, outre l'endommagement du béton, trois phénomènes : la spécificité de la liaison acier-béton, l’autocontrainte due au retrait, et l'effet d'échelle probabiliste dû à l'hétérogénéité du béton. Cette recherche s'appuie sur une campagne expérimentale pour obtenir le comportement de la liaison et les caractéristiques des fissures sur des éléments de structures. La technique de corrélation d'images numériques a été utilisée pour observer l'espacement et l'ouverture des fissures.La liaison acier-béton est considérée dans la modélisation à l'aide d'éléments d'interface élasto-plastiques basés sur les résultats expérimentaux des tests de pull-out. Les effets du retrait sont pris en compte via un cadre poro-mécanique. Enfin, l'effet d'échelle probabiliste est intégré dans la modélisation via une méthode de champs aléatoires, puis de maillon faible. La modélisation est appliquée à l'élément de structure en béton armé étudié en laboratoire ce qui permet de quantifier l'importance relative de la liaison acier-béton, des contraintes induites par le retrait empêché, et de l'hétérogénéité du matériau
The modelling of cracking of reinforced concrete using the finite element method requires taking into account, in addition to the concrete damage, three phenomena: the specificity of the steel-concrete bond, the self-stress due to shrinkage, and the probabilistic scale effect due to the heterogeneity of concrete. This research is based on an experimental campaign to obtain the behaviour of the bond and the characteristics of the cracks on structural elements. The technique of digital image correlation was used to observe the spacing and opening of the cracks.The steel-concrete bond is considered in modelling using elastoplastic interface elements based on the experimental results of the pull-out tests. The effects of shrinkage are taken into account via a poro-mechanical framework. Finally, the probabilistic scale effect is integrated into the modelling via a random field method and then a weakest link one. Modelling is applied to the reinforced concrete structural element studied in the laboratory, which makes it possible to quantify the relative importance on cracking of the steel-concrete bond, the stresses induced by shrinkage, and the tensile strength heterogeneity of the material
Styles APA, Harvard, Vancouver, ISO, etc.
21

Benjelil, Mohamed. « Analyse d'images de documents complexes et identification de scripts : cas des documents administratifs ». La Rochelle, 2010. http://www.theses.fr/2010LAROS299.

Texte intégral
Résumé :
Ce document présente nos travaux sur les méthodes d'analyse d'images de documents multilingues multi-script : cas des documents administratifs à l'aide d'une approche texture. Deux thèmes sont abordés: (1) segmentation d'images de documents; (2) identification de scripts Arabe et Latin imprimés et / ou manuscrits. Les approches développés concernent le flux de documents tout venant dont la particularité est qu'il n'obéit pas à un modèle bien déterminé. Le premier chapitre présente la problématique et l'état de l'art de la segmentation et l'identification de script dans les documents complexes. Le second chapitre est consacré au développement d'outils méthodologiques pour la segmentation d'images de documents en régions. Dans le troisième chapitre nous présentons l'application de notre approche sur la segmentation des documents administratifs. Dans le quatrième chapitre nous présentons l'application de notre approche sur l'identification de script Arabe et Latin imprimés et/ ou manuscrits. Trois objectifs distincts sont envisagés: (1) la segmentation complète de l'image, (2) l'identification du script du contenu textuel de l'image du document, (3) la possibilité d'extraire un objet particulier dans l'image. L'approche adoptée est basée sur la classification des régions à l'aide des caractéristiques extraites de la décomposition en pyramide orientale. Les résultats obtenus au cours de cette thèse convergent, tous, pour démontrer la capacité des approches proposés à l'analyse et à la caractérisation d'images de documents complexes. Des exemples d'application, des tests de performance et des études comparatives sont ensuites présentées
This thesis describes our work in the field of multilingual multi-script complex document image segmentation: case of official documents. We proposed texture-based approach. Two different subjects are presented: (1) document image segmentation; (2) Arabic and Latin script identification in printed ant/ or handwriten types. The developed approaches concern the flow of documents that do not obey to a specific model. Chapter 1 presents the problematic and state of the complex document image segmentation and script identification. The work described in chapter 2 aimed at finding new models for complex multilingual multi-script document image segmentation. Algorythms have been developed for the segmentation of document images into homogeneous regions, identifying the script of textual blocs contained in document image and also can segment out a particular object in an image. The approach is based on classification on text and non text regions by mean of steerable pyramid features. Chapter 3 describes our work on official documents images segmentation based on steerable pyramid features. Chapter 4 describes our work on Arabic and Latin script identification in printed and/ or handwritten types. Experimental results shows that the proposed approaches perform consistently well on large sets of complex document images. Examples of application, performance tests and comparative studies are also presented
Styles APA, Harvard, Vancouver, ISO, etc.
22

Nguyen, Thi Bich Thuy. « La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration ». Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0350/document.

Texte intégral
Résumé :
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée
Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
Styles APA, Harvard, Vancouver, ISO, etc.
23

Etxegarai, Aldami Etxebarria Maddi. « Etude du couplage hydromécanique dans les roches par analyse d'images obtenues par tomographie neutronique ». Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI010/document.

Texte intégral
Résumé :
Le comportement des roches-réservoirs souterraines est un sujet important pour de nombreuses applications liées à la production d’énergie (extraction d’hydrocarbures, séquestration de CO2, ...). L'une des principales questions posées est celle de l'effet des déformations sur les propriétés de transfert hydraulique de la roche, en particulier en conditions saturées. En effet, la déformation des géomatériaux est rarement homogène en raison de conditions aux limites complexes et de sa tendance intrinsèque à se localiser. Cette non-uniformité spatiale de la déformation produit un champ de perméabilité hétérogène. Cela remet en question la validité (a) des méthodes traditionnelles d'analyse macroscopique et (b) des mesures établies principalement loin des zones de déformation localisée. Ainsi, pour améliorer la caractérisation des géo-matériaux, il est crucial d’avoir des mesures locales de la perméabilité, et de connaître la relation entre la déformation et la perméabilité, qui gouverne leur comportement hydraulique.Cette thèse porte sur l’étude du couplage hydromécanique des roches par tomographie aux neutrons et aux rayons X, ainsi que sur le développement de nouvelles méthodes d'analyse. Même si le recours à l'imagerie par rayons X en géosciences devient de plus en plus accessible, la détection directe des fluides a été très limitée en raison du faible contraste air/eau dans les géomatériaux. Contrairement aux rayons X, les neutrons sont très sensibles à l’hydrogène présent dans l'eau. La radiographie par neutrons permet donc d'obtenir des images où la détection du fluide est bien plus facile. De plus, les neutrons sont sensibles aux isotopes, ce qui veut dire que l’eau lourde et celle normale, qui ont des propriétés physico-chimiques proches, peuvent être distinguées avec une grande précision. Il faut noter que l’imagerie aux neutrons pour les roches est un domaine expérimental qui est essentiellement inexploré, ou limité à des études 2D d'échantillons secs, avec peu ou pas de contrôle sur les conditions aux limites.Dans le cadre de ce travail, nous avons conçu une nouvelle cellule triaxiale, avec un contrôle asservi, pour effectuer des expériences d'écoulement de fluides multiples dans un échantillon de roche saturé et chargé mécaniquement avec acquisition des données neutroniques en 4D. Une autre originalité du projet est l'utilisation d'installations d'imagerie neutroniques à haute performance (CONRAD-2 au Helmholtz Zentrum à Berlin et NeXT à l'Institut Laue-Langevin à Grenoble), profitant de la technologie de pointe et des lignes de faisceaux les plus puissantes du monde. Cela a permis d'acquérir des données à une fréquence optimale pour notre étude.Ce travail présente les résultats de plusieurs campagnes expérimentales couvrant une série de conditions initiales et de conditions aux limites relativement complexes. Pour quantifier le couplage hydromécanique local, nous avons appliqué un certain nombre de procédures de post-traitement standard et nous avons également développé un ensemble de méthodes de mesure, par exemple pour suivre le front d’eau et déterminer les cartes de vitesse 3D. Les résultats montrent que la vitesse du front d’eau entraîné par imbibition dans un échantillon sec est augmentée à l’intérieur d'une bande de cisaillement compactante, tandis que la vitesse d’écoulement entraîné par la pression est réduite dans les échantillons saturés, quelque soit la réponse volumétrique de la bande de cisaillement (compactante / dilatante). La nature des données 3D et des analyses s'est révélée essentielle dans la caractérisation du comportement mécanique complexe des échantillons et de la vitesse d'écoulement qui en résulte.Les résultats expérimentaux obtenus contribuent à la compréhension de l'écoulement dans les matériaux poreux sous chargement, garantissent la pertinence de l'analyse et permettent d’etablir une méthode expérimentale pour d'autres campagnes hydromécaniques in-situ
The behaviour of subsurface-reservoir porous rocks is a central topic in resource engineering industry and has relevant applications for hydrocarbon and water production or CO2 sequestration. One of the key open issues is the effect of deformations on the hydraulic properties of the host rock, specifically in saturated environments. Deformation in geomaterials is rarely homogeneous because of the complex boundary conditions they undergo as well as for their intrinsic tendency to localise. This non uniformity of the deformation yields a non uniform permeability field, meaning that the traditional macroscopic analysis methods are outside their domain of validity. These methods are in fact based on measurements taken at the boundaries of a tested sample, under the assumption of internal homogeneity. At this stage, our understanding is in need of direct measurements of the local fluid permeability and its relationship with localiseddeformation.This doctoral dissertation focuses on the acquisition of such local data about the hydro mechanical properties of porous geomaterials in full-field, adopting neutron and x-ray tomography, as well as on the development of novel analysis methods. While x-ray imaging has been increasingly used in geo-sciences in the last few decades, the direct detection of fluid has been very limited because of the low air/water contrast within geomaterials. Unlike x-rays, neutrons are very sensitive to the hydrogen in the water because of their interaction with matter (neutrons interact with the atoms’ nuclei rather than with the external electron shell as x-rays do). This greater sensitivity to hydrogen provides a high contrast compared to the rock matrix, in neutron tomography images that facilitates the detection of hydrogen-rich fluids. Furthermore, neutrons are isotope-sensitive, meaning that water (H 2 0) and heavy water (D20), while chemically and hydraulically almost identical, can be easily distinguished in neutron imaging.The use of neutron imaging to investigate the hydromechanical properties of rocks is a substantially under-explored experimental area, mostly limited to 2D studies of dry, intact or pre-deformed samples, with little control of the boundary conditions. In thiswork we developed a new servocontrolled triaxial cell to perform multi-fluid flow experiments in saturated porous media, while performing in-situ loading and acquiring 4-dimensional neutron data.Another peculiarity of the project is the use of high-performance neutron imaging facilities (CONRAD-2, in Helmholtz Zentrum Berlin, and NeXT-Grenoble, in Institut Laue-Langevin), taking advantage of the world’s highest flux and cutting edge technology to acquire data at an optimal frequency for the study of this processes. The results of multiple experimental campaigns covering a series of initial and boundary conditions of increasing complexity are presented in this work.To quantify the local hydro-mechanical coupling, we applied a number of standard postprocessing procedures (reconstruction, denoising, Digital Volume Correlation) but also developed an array of bespoke methods, for example to track the water front andcalculate the 3D speed maps.The experimental campaigns performed show that the speed of the water front driven by imbibition in a dry sample is increased within a compactant shear band, while the pressure driven flow speed is decreased in saturated samples, regardless of the volumetric response of the shear band (compactant/dilatant). The 3D nature of the data and analyses has revealed essential in the characterization of the complex mechanical behaviour of the samples and the resultant flow speed.The experimental results obtained contribute to the understanding of flow in porous materials, ensure the suitability of the analysis and set an experimental method for further in-situ hydromechanical campaigns
Styles APA, Harvard, Vancouver, ISO, etc.
24

Pierazzo, Nicola. « Quelque progrès en débruitage d'images ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN036/document.

Texte intégral
Résumé :
Cette thèse explore les dernières évolutions du débruitage d'images, et elle essaie de développer une vision synthétique des techniques utilisées jusqu'à présent. Elle aboutit à un nouvel algorithme de débruitage d'image évitant les artefacts et avec un meilleur PSNR que tous les algorithmes que nous avons pu évaluer. La première méthode que nous présentons est DA3D, un algorithme de débruitage fréquentiel avec guide, inspiré de DDID. La surprise de cet algorithme, c'est que le débruitage fréquentiel peut battre l'état de l'art sans produire artefacts. Cet algorithme produit des bons résultats non seulement en PSNR, mais aussi (et surtout) en qualité visuelle. DA3D marche particulièrement bien pour améliorer les textures des images et pour enlever les effets de staircasing.DA3D, guidé par un autre algorithme de débruitage améliore presque toujours le résultat de son guide. L'amélioration est particulièrement nette quand le guide est un algorithme à patchs, et alors on combine deux principes différents: auto-similarité suivi de seuillage fréquentiel. Le deuxième résultat présenté est une méthode universelle de débruitage multi-échelle, applicable à tout algorithme. Une analyse qualitative montre en effet que les algorithmes de débruitage à patchs éliminent surtout les hautes fréquences du bruit, à cause de la taille limitée des voisinages traités. Plutôt que d'agrandir ces voisinages nous décomposons l'image en une pyramide basée sur la transformée en cosinus discrète, avec une méthode de recomposition évitant le ringing. Cette méthode traite le bruit à basse fréquence, et améliore la qualité de l'image. Le troisième problème sérieux que nous abordons est l'évaluation des algorithmes de débruitage. Il est bien connu que le PSNR n'est pas un indice suffisant de qualité. Un artefact sur une zone lisse de l'image est bien plus visible qu'une altération en zone texturée. Nous proposons une nouvelle métrique basée sur un Smooth PSNR et un Texture PSNR, pour mesurer les résultats d'un algorithme sur ces deux types des régions. Il apparaît qu'un algorithme de débruitage, pour être considéré acceptable, doit avoir des bons résultats pour les deux métriques. Ces métriques sont finalement utilisées pour comparer les algorithmes de l'état de l'art avec notre algorithme final, qui combine les bénéfices du multi-échelle et du filtrage fréquentiel guidé. Les résultats étant très positifs, nous espérons que la thèse contribue à résoudre un vieux dilemme, pour lequel la méthode DDID avait apporté de précieuses indications : comment choisir entre le seuillage fréquentiel et les méthodes basées sur l'auto-similarité pour le débruitage d'images ? La réponse est qu'il ne faut pas choisir. Cette thèse termine avec quelques perspectives sur la faisabilité du débruitage "externe". Son principe est de débruiter un patch en utilisant une grande base de données externe de patches sans bruit. Un principe bayésien démontré par Levin et Nadler en 2011 implique que le meilleur résultat possible serait atteint avec cette méthode, à condition d'utiliser tous les patches observables. Nous donnons les arguments mathématiques prouvant que l'espace des patches peut être factorisé, ce qui permet de réduire la base de données de patches utilisés d'un facteur au moins 1000
This thesis explores the last evolutions on image denoising, and attempts to set a new and more coherent background regarding the different techniques involved. In consequence, it also presents a new image denoising algorithm with minimal artifacts and the best PSNR performance known so far.A first result that is presented is DA3D, a frequency-based guided denoising algorithm inspired form DDID [Knaus-Zwicker 2013]. This demonstrates that, contrarily to what was thought, frequency-based denoising can beat state-of-the-art algorithms without presenting artifacts. This algorithm achieves good results not only in terms of PSNR, but also (and especially) with respect to visual quality. DA3D works particularly well on enhancing the textures of the images and removing staircasing effects.DA3D works on top of another denoising algorithm, that is used as a guide, and almost always improve its results. In this way, frequency-based denoising can be applied on top of patch-based denoising algorithms, resulting on a hybrid method that keeps the strengths of both. The second result presented is Multi-Scale Denoising, a framework that allows to apply any denoising algorithm on a multi-scale fashion. A qualitative analysis shows that current denoising algorithms behave better on high-frequency noise. This is due to the relatively small size of patches and search windows currently used. Instead of enlarging those patches, that can cause other sorts of problems, the work proposes to decompose the image on a pyramid, with the aid of the Discrete Cosine Transformation. A quantitative study is performed to recompose this pyramid in order to avoid the appearance of ringing artifacts. This method removes most of the low-frequency noise, and improves both PSNR and visual results for smooth and textured areas.A third main issue addressed in this thesis is the evaluation of denoising algorithms. Experiences indicate that PSNR is not always a good indicator of visual quality for denoising algorithms, since, for example, an artifact on a smooth area can be more noticeable than a subtle change in a texture. A new metric is proposed to improve on this matter. Instead of a single value, a ``Smooth PNSR'' and a ``Texture PSNR'' are presented, to measure the result of an algorithm for those two types of image regions. We claim that a denoising algorithm, in order to be considered acceptable, must at least perform well with respect to both metrics. Following this claim, an analysis of current algorithms is performed, and it is compared with the combined results of the Multi-Scale Framework and DA3D.We found that the optimal solution for image denoising is the application of a frequency shrinkage, applied to regular regions only, while a multiscale patch based method serves as guide. This seems to resolve a long standing question for which DDID gave the first clue: what is the respective role of frequency shrinkage and self-similarity based methods for image denoising? We describe an image denoising algorithm that seems to perform better in quality and PSNR than any other based on the right combination of both denoising principles. In addition, a study on the feasibility of external denoising is carried, where images are denoised by means of a big database of external noiseless patches. This follows a work of Levin and Nadler, in 2011, that claims that state-of-the-art results are achieved with this method if a large enough database is used. In the thesis it is shown that, with some observation, the space of all patches can be factorized, thereby reducing the number of patches needed in order to achieve this result. Finally, secondary results are presented. A brief study of how to apply denoising algorithms on real RAW images is performed. An improved, better performing version of the Non-Local Bayes algorithm is presented, together with a two-step version of DCT Denoising. The latter is interesting for its extreme simplicity and for its speed
Styles APA, Harvard, Vancouver, ISO, etc.
25

Laruelle, Élise Raphaëlle. « Vers une modélisation des grands plans d’organisation de l’embryon d'Arabidopsis thaliana ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS074/document.

Texte intégral
Résumé :
Au cours du développement embryonnaire, la plupart des éléments de la plante sont mis en place. Ce processus donne lieu à un embryon mature qui possède toutes les caractéristiques d'une jeune plantule. Ces étapes se déroulent durant les premiers stades du développement et sont associées à un changement de forme, ou morphogenèse. Ces deux processus sont stéréotypés chez Arabidopsis thaliana.Au cours du développement embryonnaire, l'embryon passe d'une forme globulaire avec une symétrie radiale, à un embryon en forme de cœur avec une symétrie bilatérale. Ces changements sont basés sur des événements de croissance différentielle et de divisions cellulaires avec des orientations particulières de la surface de division dans l'embryon, des mécanismes qui sont étroitement régulés et sous le contrôle de facteurs moléculaires. Si certaines caractéristiques des stades de développement sont connues, comme le nombre de cellules ou encore des événements moléculaires, d'autres comme le changement de symétrie et l’acquisition d'une forme, qui est spécifique de l'embryon, n'ont pas encore été étudiées. Pour comprendre l'origine de la forme de cœur, une description multi-échelle et une quantification précises des changements de forme ont été réalisées. Pour cela une collection pré-existante d'image embryons fixés à différents stades du développement, a été enrichie de 47 embryons pour couvrir le développement embryonnaire précoce sur 8 générations cellulaires. Chaque embryon de la collection a été numérisé en 3D et ses cellules segmentées. À partir de ces images, une filiation cellulaire de l'embryon et des données de description de l'organisation des cellules ont été générées.L'évolution des paramètres mesurés montre un changement progressif de la forme qui démarre de manière très précoce et bien avant que des modifications morphologiques ne soient supposées. Pour suivre l'évolution de traits caractéristiques de la forme et l'attribuer à des dynamiques cellulaires particulières, des mesures sur les événements de division et de croissance cellulaire ont été calculées. Des modifications de croissances cellulaires apparaissent très précocement alors que l'embryon n'est encore que globulaire. Les caractéristiques des divisions changent également, les plans de division passent d'une orientation stéréotypée à une orientation variable. Malgré la variabilité, des comportements similaires apparaissent au cours des générations cellulaires mais également au sein des différents précurseurs des tissus et organes de l'embryon.La variabilité des divisions observées est questionnée à travers la recherche de règles simulées à l'aide d'un modèle stochastique 3D de partitionnement volumique. En testant une règle de minimisation stochastique de l'aire de la surface de partition, l'ensemble des orientations des plans de division observés ont pu être reproduites dans les formes observées et avec une répartition du volume donnée. L'hypothèse d'une règle stochastique basée sur la géométrie cellulaire et la minimisation de l'aire de la surface est envisagée, mais les générations avancées laissent entrevoir l'action progressive d'une autre contrainte sur la mise en place du plan de division. L'ensemble du phénotypage devrait définir de bonnes bases pour mieux comprendre les facteurs moléculaires qui régulent les mécanismes cellulaires de division et de croissance impliquée dans la mise en place de la forme de cœur de l'embryon
During embryonic development, the major body plans of the plant are implemented. This process gives rise to a mature embryo which possess all the characteristics of a young seedling and is associated with a morphological change. These two processes are stereotyped in Arabidopsis thaliana embryo development.Over the developmental process, the embryo shape switches from a globular form, with a radial symmetry, to a heart form with a bilateral symmetry. These changes are based on a differential cellular growth and on particular cell division plane orientation in the embryo, mechanisms that are tightly regulated and under control of molecular factors.If a number of cellular and molecular steps are known, the evolution of the symmetry and the acquisition of the specific embryo shape have not yet been explored.To understand the origin of the heart shape, we proceed to a detailed multi-scale description and quantification of embryo shape changes during embryo stages. We completed a collection of fixed embryo images with 35 embryos distributed along the embryo development over eight cell generations. The embryos have been digitized in 3D and cell segmented. From these images, embryo cell lineages have been reconstructed and their cell organizations characterized.The evolution of parameter measurements showed a progressive change of the shape. The change has begun at an early embryo stage where morphology still look like a globular form.To correlate the morphological change and the cells events, the division and the cell growth were inferred through measurements. The cell growth behavior changed in the globular embryo. Changes in the division behavior were also observed. The division plan orientations stopped to be stereotyped. Despite the variability, similar behaviors were observed over cell generations and also among precursor of tissues and organs of the embryo.The cell division behavior has been further analyzed by a search of the realized division rules which explain observations with a stochastic model of volume partition. A division rule based on a stochastic 3D surface area minimization has reproduced all observed division plane orientations depending on the volume repartition among daughter cells. The hypothesis of a stochastic division rule based on the cell geometry with a surface area minimization of surface passing through the mother cell centroid seemed to become apparent. But divisions in older cell generations suggested a progressive action of another factor on the division plane.The overall phenotyping the embryo early development should provide a framework for the analysis of molecular factors involved in the heart shape
Styles APA, Harvard, Vancouver, ISO, etc.
26

Menguy, Pierre-Yves. « Suivi longitudinal des endoprothèses coronaires par analyse de séquences d'images de tomographie par cohérence optique ». Thesis, Clermont-Ferrand 1, 2016. http://www.theses.fr/2016CLF1MM30/document.

Texte intégral
Résumé :
Cette thèse porte sur la segmentation et la caractérisation des artères coronaires et des endoprothèses (stent) en imagerie de Tomographie par Cohérence Optique (OCT). L’OCT est une imagerie de très haute résolution qui permet d’apprécier des structures fines comme la couche intimale de la paroi vasculaire et les mailles du stent (struts). L’objectif de cette thèse est de proposer des outils logiciels autorisant l’analyse automatique d’un examen avec un temps d’exécution compatible avec une utilisation peropératoire. Ces travaux font suite à la thèse de Dubuisson en OCT, qui avait proposé un premier formalisme pour la segmentation de la lumière et la détection des struts pour les stents métalliques. Nous avons revisité la chaine de traitement pour ces deux problèmes et proposé une méthode préliminaire de détection de stents en polymère biorésorbable. Une modélisation surfacique du stent a permis d’estimer une série d’indices cliniques à partir des diamètres, surfaces et volumes mesurés sur chaque coupe ou sur l’ensemble de l’examen. L’apposition du stent par rapport à la paroi est également mesurée et visualisée en 3D avec une échelle de couleurs intuitive. La lumière artérielle est délimitée à l’aide d’un algorithme de recherche de plus court chemin de type Fast Marching. Son originalité est d’exploiter l’image sous la forme hélicoïdale native de l’acquisition. Pour la détection du stent métallique, les maxima locaux de l’image suivis d’une zone d’ombre ont été détectés et caractérisés par un vecteur d’attributs calculés dans leur voisinage (valeur relative du maximum, pente en niveau de gris, symétrie...). Les pics correspondant à des struts ont été discriminés du speckle environnant par une étape de régression logistique avec un apprentissage à partir d’une vérité terrain construite par un expert. Une probabilité d’appartenance des pics aux struts est construite à partir de la combinaison des attributs obtenue. L’originalité de la méthode réside en la fusion des probabilités des éléments proches avant d’appliquer un critère de décision lui aussi déterminé à partir de la vérité terrain. La méthode a été évaluée sur une base de données de 14 examens complets, à la fois au niveau des pixels et des struts détectés. Nous avons également validé de façon exhaustive une méthode de recalage non rigide d’images OCT exploitant des amers appariés par un expert sur les examens source et cible. L’objectif de ce recalage est de pouvoir comparer les examens coupe à coupe et les indices calculés aux mêmes positions à des temps d’acquisition différents. La fiabilité du modèle de déformation a été évaluée sur un corpus de quarante-quatre paires d’examens OCT à partir d’une technique de validation croisée par Leave-One-Out
This thesis deals with the segmentation and characterization of coronary arteries and stents in Optical Coherence Tomography (OCT) imaging. OCT is a very high resolution imaging that can appreciate fine structures such as the intimal layer of the vascular wall and stitches (struts). The objective of this thesis is to propose software tools allowing the automatic analysis of an examination with a runtime compatible with an intraoperative use. This work follows Dubuisson's thesis in OCT, which proposed a first formalism for light segmentation and strut detection for metal stents. We revisited the treatment chain for these two problems and proposed a preliminary method for detecting bioabsorbable polymer stents. Surface modeling of the stent made it possible to estimate a series of clinical indices from the diameters, surfaces and volumes measured on each section or on the entire examination. Applying the stent to the wall is also measured and visualized in 3D with an intuitive color scale. The arterial lumen is delineated using a Fast Marching short path search algorithm. Its originality is to exploit the image in the native helical form of the acquisition. For the detection of the metallic stent, the local maxima of the image followed by a shadow zone have been detected and characterized by a vector of attributes calculated in their neighborhood (relative value of the maximum, slope in gray level, symmetry ...). Peaks corresponding to struts were discriminated from the surrounding speckle by a logistic regression step with learning from a field truth constructed by an expert. A probability of belonging to the peaks to struts is constructed from the combination of attributes obtained. The originality of the method lies in the fusion of the probabilities of the close elements before applying a decision criterion also determined from the ground truth. The method was evaluated on a database of 14 complete examinations, both at the level of pixels and struts detected. We have also extensively validated a method of non-rigid registration of OCT images using bitters matched by an expert on the source and target exams. The objective of this registration is to be able to compare cut-to-cut examinations and indices calculated at the same positions at different acquisition times. The reliability of the strain model was evaluated on a corpus of forty-four pairs of OCT exams from a Leave-One-Out cross validation technique
Styles APA, Harvard, Vancouver, ISO, etc.
27

He, Rui. « Évaluation d'une analyse voxel à voxel dans l'accident vasculaire cérébral à partir d'images IRM multiparamétriques ». Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS026/document.

Texte intégral
Résumé :
L'accident vasculaire cérébral (AVC) est la principale cause de handicap acquis chez l'adulte. Au-delà de l'étroite fenêtre thérapeutique et des risques éventuels de la thrombolyse et de la thrombectomie mécanique, la thérapie cellulaire par cellules souches présente un fort potentiel. Plusieurs études ont montré que les cellules souches transplantées peuvent améliorer la récupération fonctionnelle après un AVC sur des modèles de rongeurs. L’imagerie multiparamétrique par résonance magnétique (IRM), qui inclue l'imagerie de diffusion et de perfusion, est aujourd’hui le protocole standard pour caractériser l'AVC. L'imagerie permet également de suivre in vivo les mécanismes sous-jacents de la thérapie cellulaire après un AVC de la phase aigüe à la phase chronique. Cependant, la quantification de l'hétérogénéité spatiale des lésions, clairement visible par IRM, reste un défi à l'heure actuelle. En effet, les techniques d'analyses d'images utilisées en routine sont basées sur le calcul des valeurs moyennes à partir de régions d'intérêts (ROI). Cette technique par ROI ne peut pas refléter l'hétérogénéité intra-lésionnelle. C'est pourquoi, de nouvelles stratégies d'analyses d'images doivent être développées et évaluées afin de quantifier l'hétérogénéité des lésions ischémiques mais aussi pour suivre l'évolution de cette hétérogénéité au cours du temps. Des approches utilisant des analyses par histogramme permettent d'évaluer l'hétérogénéité des lésions mais perdent l'information spatiale. Une alternative est l'utilisation d'une analyse d'image à l'échelle du voxel appelée "Parametric Response Map (PRM)". Cet outil a été décrit comme plus sensible que l'analyse par ROI dans le pronostic mais aussi dans le suivi thérapeutique chez des patients porteurs de tumeurs cérébrales ou encore atteints d'hémorragies cérébrales.Mon projet de thèse est divisé en deux parties: une étude préclinique chez le rat et une étude clinique (projet ISIS / HERMES). La première partie de ma thèse vise à évaluer les changements physiopathologiques mesurés par l'IRM après un traitement par cellules souches mésenchymateuses humaines (CSMh) sur un modèle d'AVC chez le rat. Des animaux présentant une occlusion transitoire de l'artère cérébrale moyenne (oACM) ou non (Sham) ont été traités ou non par une injection de CSMh. Au cours de cette étude, différents paramètres IRM ont été cartographiés en utilisant une IRM 7T (4 temps d'imagerie): le coefficient apparent de diffusion (ADC), le volume sanguin cérébral (CBV) et l'indice de taille des vaisseaux (VSI). Les cartes d'ADC, CBV et VSI ont été analysées en utilisant l'approche classique par ROI mais aussi par PRM. L'objectif de cette étude était de déterminer si l'analyse par PRM était capable de détecter plus précocement l'effet des CSMh que l'analyse par ROI. Durant la seconde partie de ma thèse, 6 paramètres IRM (imagerie de diffusion et de perfusion) ont été acquis chez 30 patients AVC. Les données IRM, analysées par valeur moyenne classique et par PRM, ont été corrélées avec des évaluations de la récupération fonctionnelle : le score NIHSS (National Institutes of Health Stroke Score) et l'échelle de Rankin modifiée (mRS) mesurés à différents temps post-ischémie. L’analyse PRM des cartes paramétriques IRM révèle des changements fins de la lésion et corrèle avec le pronostic à long terme après l’ischémie.En conclusion, la PRM pourrait être utilisée comme biomarqueur d’efficacité thérapeutique (combinaison d’images IRM et d’outils innovants d’analyse d'images) et comme biomarqueur pronostique des patients AVC
Stroke is the leading cause of disability in adults. Beyond the narrow time window and possible risks of thrombolysis and mechanical thrombectomy, cell-therapies have strong potential. Reports showed that transplanted stem cells can enhance functional recovery after ischemic stroke in rodent models.To assess the mechanisms underlying the cell-therapy benefit after stroke, imaging is necessary. Multiparametric magnetic resonance imaging (MRI), including diffusion-weighted imaging (DWI) and perfusion-weighted imaging (PWI), has become the gold standard to evaluate stroke characteristics. MRI also plays an important role in the monitoring of cerebral tissue following stroke from the acute to the chronic phase. However, the spatial heterogeneity of each stroke lesion and its dynamic reorganization over time, which may be related to the effect of a therapy, remain a challenge for traditional image analysis techniques. To evaluate the effect of new therapeutic strategies, spatial and temporal lesion heterogeneities need to be more accurately characterized and quantified.The current image analysis techniques, based on mean values obtained from regions of interest (ROIs), hide the intralesional heterogeneity. Histogram-based techniques provide an evaluation of lesion heterogeneity but fail to yield spatial information. The parametric response map (PRM) is an alternative, voxel-based analysis technique, which has been established in oncology as a promising tool to better investigate parametric changes over time at the voxel level which concern the therapeutic response or prognosis of disease.The PhD project was divided into two parts: a preclinical and a clinical study. The goal of the first study was to evaluate the PRM analysis using MRI data collected after the intravenous injection of human mesenchymal stem cells (hMSCs) in an experimental stroke model. The apparent diffusion coefficient (ADC), cerebral blood volume (CBV) and vessel size index (VSI) were mapped using 7T MRI. Two analytic procedures, the standard whole-lesion approach and the PRM, were performed on data collected at 4 time points in transient middle cerebral artery occlusion (MCAo) models treated with either hMSC or vehicle and in sham animals. During the second PhD project, 6 MR parametric maps (diffusion and perfusion maps) were collected in 30 stroke patients (the ISIS / HERMES clinical trial). MRI data, analyzed with both a classic mean value and a PRM approaches, were correlated with the evaluation of functional recovery after stroke measured with the National Institutes of Health Stroke Scale (NIHSS) and the modified Rankin Scale (mRS) at 4 time points.In both studies, PRM analysis of MR parametric maps reveals fine changes of the lesion induced by a cell therapy (preclincal study) and correlate with long-term prognosis (clinical study).In conclusion, the PRM analysis could be used as an imaging biomarker of therapeutic efficacy and of prognostic biomarker of stroke patients
Styles APA, Harvard, Vancouver, ISO, etc.
28

Journet, Nicholas. « Analyse d’images de documents anciens : une approche texture ». La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Texte intégral
Résumé :
Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images
Styles APA, Harvard, Vancouver, ISO, etc.
29

Belarte, Bruno. « Extraction, analyse et utilisation de relations spatiales entre objets d'intérêt pour une analyse d'images de télédétection guidée par des connaissances du domaine ». Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD011/document.

Texte intégral
Résumé :
Les nouveaux capteurs satellitaires permettent l'acquisition d'images d'un très haut niveau de détail à des cadences élevées, produisant ainsi une importante masse de données. Le traitement manuel de ces données étant devenu impossible, de nouveaux outils sont nécessaires afin de les traiter automatiquement. Des algorithmes de segmentation efficaces sont nécessaires pour extraire des objets d'intérêt de ces images. Cependant les segments produits ne correspondent pas aux objets d'intérêt, rendant difficile l'utilisation de connaissances expertes.Dans le cadre de cette thèse nous proposons de changer le niveau d'interprétation d'une image afin de voir les objets d'intérêt pour l'expert comme des objets composés par des segments. Pour cela, nous avons mis en place un processus d'apprentissage multi-niveaux dans le but d'apprendre ces règles de composition. Une règle de composition ainsi apprise peut ensuite être utilisée pour extraire les objets d'intérêt correspondant. Dans un second temps, nous proposons d'utiliser l'algorithme d'apprentissage de règles de composition comme première étape d'une approche montante-descendante. Cette chaîne de traitement a pour objectif d'améliorer la classification à partir des informations contextuelles et de connaissances expertes. Des objets composés de plus haut niveau sémantique sont extraits à partir de règles apprises ou fournies par l'expert, et cette nouvelle information est utilisée pour mettre à jour la classification des objets aux niveaux inférieurs. L'ensemble de ces travaux ont été testés et validés sur des images Pléiades représentant la ville de Strasbourg. Les résultats obtenus montrent l'efficacité de l'apprentissage de règles de composition pour faire le lien entre connaissance experte et segmentation, ainsi que l'intérêt de l'utilisation d'informations contextuelles dans l'analyse d'images de télédétection à très haute résolution spatiale
The new remote sensors allow the acquisition of very high spatial resolution images at high speeds, thus producing alarge volume of data. Manual processing of these data has become impossible, new tools are needed to process them automatically. Effective segmentation algorithms are required to extract objects of interest of these images. However, the produced segments do not match to objects of interest, making it difficult to use expert knowledge.In this thesis we propose to change the level of interpretation of an image in order to see the objects of interest of the expert as objects composed of segments. For this purpose, we have implemented a multi-level learning process in order to learn composition rules. Such a composition rule can then be used to extract corresponding objects of interest.In a second step, we propose to use the composition rules learning algorithm as a first step of a bottom-up top-down approach. This processing chain aims at improving the classification from contextual knowledge and expert information.Composed objects of higher semantic level are extracted from learned rules or rules provided by the expert, and this new information is used to update the classification of objects at lower levels.The proposed method has been tested and validated on Pléiades images representing the city of Strasbourg. The results show the effectiveness of the composition rules learning algorithm to make the link between expert knowledge and segmentation, as well as the interest of the use of contextual information in the analysis of remotely sensed very high spatial resolution images
Styles APA, Harvard, Vancouver, ISO, etc.
30

Pham, Chi-Hieu. « Apprentisage profond pour la super-résolution et la segmentation d'images médicales ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0124/document.

Texte intégral
Résumé :
L'objectif de cette thèse est d'étudier le comportement de différentes représentations d'images, notamment apprentissage profond, dans le contexte d'application en imagerie médicale. Le but est de développer une méthode unifiée efficace pour les applications visées que sont la super résolution, la segmentation et la synthèse. La super-résolution est un procès d'estimation d'une image haute-résolution à partir d'une ou plusieurs images basses résolutions. Dans cette thèse, nous nous concentrons sur la super résolutionunique, c'est-à-dire que l'image haute résolution (HR) est estimée par une image basse-résolution (LR) correspondante. Augmenter la résolution de l'image grâce à la super-résolution est la clé d'une compréhension plus précise de l'anatomie. L'application de la super résolution permet d'obtenir des cartes de segmentation plus précises. Étant donné que deux bases de données qui contiennent les images différentes (par exemple, les images d'IRM et les images de CT), la synthèse est un procès d'estimation d'une image qui est approximative aux images dans la base de données de cible à partir d'une image de la base de données de source. Parfois, certains contrastes tissulaires ne peuvent pas être acquis pendant la séance d'imagerie en raison du temps et des coûts élevés ou de l'absence d'appareils. Une solution possible est à utiliser des méthodes de synthèse d'images médicales pour générer les images avec le contraste différent qui est manquée dans le domaine à cible à partir de l'image du domaine donnée. L'objectif des images synthétiques est d'améliorer d'autres étapes du traitement automatique des images médicales telles que la segmentation, la super-résolution ou l'enregistrement. Dans cette thèse, nous proposons les réseaux neurones pour la super résolutionet la synthèse d'image médicale. Les résultats démontrent le potentiel de la méthode que nous proposons en ce qui concerne les applications médicales pratiques
In this thesis, our motivation is dedicated to studying the behaviors of different image representations and developing a method for super-resolution, cross-modal synthesis and segmentation of medical imaging. Super-Resolution aims to enhance the image resolution using single or multiple data acquisitions. In this work, we focus on single image super-resolution (SR) that estimates the high-resolution (HR) image from one corresponding low-resolution (LR) image. Increasing image resolution through SR is a key to more accurate understanding of the anatomy. The applications of super-resolution have been shown that applying super-resolution techniques leads to more accurate segmentation maps. Sometimes, certain tissue contrasts may not be acquired during the imaging session because of time-consuming, expensive costor lacking of devices. One possible solution is to use medical image cross-modal synthesis methods to generate the missing subject-specific scans in the desired target domain from the given source image domain. The objective of synthetic images is to improve other automatic medical image processing steps such as segmentation, super-resolution or registration. In this thesis, convolutional neural networks are applied to super-resolution and cross-modal synthesis in the context of supervised learning. In addition, an attempt to apply generative adversarial networks for unpaired cross-modal synthesis brain MRI is described. Results demonstrate the potential of deep learning methods with respect to practical medical applications
Styles APA, Harvard, Vancouver, ISO, etc.
31

Troya-Galvis, Andrès. « Approche collaborative et qualité des données et des connaissances en analyse multi-paradigme d'images de télédétection ». Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD040/document.

Texte intégral
Résumé :
L'interprétation automatique d'images de télédétection à très haute résolution spatiale est une tâche complexe mais nécessaire. Les méthodes basées objet sont couramment employées pour traiter ce type d'images. Elles consistent à construire les objets d'intérêt au moyen d'une étape de segmentation puis à les classifier en utilisant des méthodes de fouille de données. La majorité des travaux entrepris dans ce domaine considèrent la segmentation et la classification de manière indépendante. Or, ces deux étapes cruciales du processus sont fortement liées. Dans cette thèse, nous proposons deux approches différentes basées sur la qualité des données et des connaissances, pour initialiser, guider et évaluer un processus collaboratif de manière objective: 1. Une première approche basée sur une stratégie d'extraction mono-classe qui permet de se focaliser sur les propriétés particulières d'une classe donnée afin de mieux labelliser les objets de cette classe par rapport au reste. 2. Une deuxième approche multi-classe offrant deux stratégies différentes d'agrégation d'extracteurs mono-classes qui permet l'obtention d'une image entièrement labellisée de manière automatique
Automatic interpretation of very high spatial resolution remotely sensed images is a complex but necessary task. Object-based image analysis approaches are commonly used to deal with this kind of images. They consist in applying an image segmentation algorithm in order to construct the abjects of interest, and then classifying them using data-mining methods. Most of the existing work in this domain consider the segmentation and the classification independently. However, these two crucial steps are closely related. ln this thesis, we propose two different approaches which are based on data and knowledge quality in order to initialize, guide, and evaluate a segmentation and classification collaborative process. 1. The first approach is based on a mono-class extraction strategy allowing us to focus on the particular properties of a given thematic class in order to accurately label the abjects of this class. 2. The second approach deals with multi-class extraction and offers two strategies to aggregate several mono-class extractors to get a final and completely labelled image
Styles APA, Harvard, Vancouver, ISO, etc.
32

Gimonet, Nicolas. « Identification de situations de conduite dégradées par analyse d'image de la chaussée ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLE007/document.

Texte intégral
Résumé :
Les situations dégradées d'éclairage et certaines conditions météorologiques sont deux problèmes impactant la sécurité routière. La détection et la caractérisation éventuelle de celles-ci, à l'aide d'une caméra embarquée à bord des véhicules, constitueraient un élément clé permettant d'assister le conducteur. En effet, la visibilité de ce dernier peut être largement réduite, d'une part à cause des conditions météorologiques et, d'autre part, à cause des situations d'éclairages qui, dans certains cas, peuvent éblouir le conducteur.Cependant, la visibilité n'est pas le seul risque pour l'automobiliste, l'état de la route joue également un rôle important dans la sécurité du conducteur. En effet, une chaussée mouillée peut perturber les conditions de circulation des automobilistes. Elle peut engendrer des pertes d'adhérence et, ainsi, elle peut nuire directement à la sécurité des personnes présentes sur la scène routière. Associée à des conditions d'éclairage défavorables, la chaussée mouillée peut occasionner des risques d'éblouissement du conducteur. C'est pourquoi la détection de chaussées mouillées présente un intérêt certains permettant de favoriser les conditions de circulations des automobilistes. La chaussée mouillée réémet plus de lumière qu'une chaussée sèche de part ses propriétés optiques qui sont modifiées par la pellicule d'eau à sa surface. Afin d'identifier l'état réel de la chaussée (sèche, mouillée), nous étudions la quantité de lumière reçue par une caméra embarquée dans un véhicule. Cette étude se fait par le biais d'un modèle physique de réflexion de la lumière ou modèle de la BRDF. Ce modèle est alimenté par un modèle d'illumination du ciel et nous donne la valeur de luminance de la route pour une direction d'observation donnée. La différenciation chaussée sèche/ chaussée mouillée se fera en analysant les valeurs de luminance obtenues.Dans un premier temps, nous avons généré des images de synthèses de routes sècheset mouillées en s'appuyant sur un modèle de BRDF différent. Dans un second temps, les modèles présentés précédemment sont utilisés sur des images réelles afin de répondre à notre problématique à savoir l'identification de l'état réel de la chaussée.Les résultats obtenus pourront être utilisé, d'une part, par d'autres systèmes d'aide à la conduite, pour proposer une vitesse et une trajectoire adéquate au véhicule améliorant ainsi la sécurité du conducteur. Et d'autre part, ces résultats permettront de fiabiliser les aides à la conduite qui s'appuient sur les images issues de caméras
Adverse lighting conditions and meteorological conditions are two critical issues for the road safety as they are subjected to jeopardize the driver perception of the environment. Thus, their detection and characterization with a vehicle embedded camera will be a key element to assist the driver. However, visibility is not the only risk for the driver, the road's state plays also a major role in driver's safety. Indeed, a wet road may cause on the one hand losses of grip and thus harming user's safety on road scene. On the other hand, it increases the risk of glaring in case of adverse lighting conditions. It's why wet road detection is very useful to improve motorist driving conditions. A wet road reflects more light than the dry one due to its optical properties which are modified by the presence of water film on its surface. In order to identify the actual road's state (dry or wet), we study the light quantity observed by a vehicle embedded camera. This study is based on bidirectional reflectance distribution function (BRDF) model. The BRDF model is combined with a sky model to give the road's luminance value for a given direction. The wet/dry road differentiation is based on the analyze of luminance values.The first step consists in implementing each model in order to generate synthetic images of dry and wet roads.In the second step these models are carried out on real road scene images acquired by an embedded camera in order to identify the actual road's state. The results can be used by others driver assistance systems, on the one hand, in order to suggest an appropriate speed limit and trajectory for the vehicle, thus improving driver's safety, on the other hand, in order to improve ADAS's reliability based on camera
Styles APA, Harvard, Vancouver, ISO, etc.
33

Llucia, Ludovic. « Suivi d'objets à partir d'images issues de caméras mobiles non calibrées ». Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22009/document.

Texte intégral
Résumé :
La finalité industrielle de ce travail est la réalisation d’un simulateur qui permette aux entraîneurs de football de mieux interpréter certaines situations de jeu à partir de séquences vidéo en en proposant une vision 3D, mais aussi de présenter de la manière la plus ergonomique qui soit des schémas de jeux sur la base de ces situations réelles. De plus, contrairement à ce qui se pratique assez couramment dans ce cadre-là, nous avons souhaité – pour des raisons de souplesse d’utilisation – rester dans un cadre assez large et ne pas profiter d’une phase préalable (fastidieuse) de calibrage, ce qui a été à l’origine de verrous scientifiques et technologiques que nous avons cherché à résoudre, et pour lesquels nous proposons des solutions dans la première partie. Les problèmes que nous avons eu à traiter sont de deux natures, informatiques d’une part et ergonomiques d’autre part. Il s’est agi, par exemple, de caractériser la transformation homographique permettant de passer de l’image au modèle, de retrouver la position de la caméra ou de déterminer automatiquement à quelle zone du terrain correspond l’image acquise. Et, au niveau ergonomique, il s’est agi de reproduire le plus fidèlement possible les modes d’appréhension de la réalité terrain, ainsi que de modélisation et de communication des entraîneurs de football
This work refers to a 3D simulator that has for purpose to help football trainers interpreting tactical sequences based on real situations. This simulator has to be able to interpret video movies, to reconstruct a situation. The camera’s calibration state has to be as simple as possible. The first part of this document refers to the solution elaborated to implement this constraint whereas the second one is more oriented on the industrialisation process. These processes imply to focus on vision computing and ergonomics problems and to answer questions such as : how to characterize a homographic transformation matching the image and the model ? How to retrieve the position of the camera? Which area is part of the image? In an ergonomically point of view, the simulator has to reproduce the game play reality and to improve the abstraction and the communication of the coaches
Styles APA, Harvard, Vancouver, ISO, etc.
34

Decombas, Marc. « Compression vidéo très bas débit par analyse du contenu ». Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0067/document.

Texte intégral
Résumé :
L’objectif de cette thèse est de trouver de nouvelles méthodes de compression sémantique compatible avec un encodeur classique tel que H.264/AVC. . L’objectif principal est de maintenir la sémantique et non pas la qualité globale. Un débit cible de 300 kb/s a été fixé pour des applications de sécurité et de défense Pour cela une chaine complète de compression a dû être réalisée. Une étude et des contributions sur les modèles de saillance spatio-temporel ont été réalisées avec pour objectif d’extraire l’information pertinente. Pour réduire le débit, une méthode de redimensionnement dénommée «seam carving » a été combinée à un encodeur H.264/AVC. En outre, une métrique combinant les points SIFT et le SSIM a été réalisée afin de mesurer la qualité des objets sans être perturbée par les zones de moindre contenant la majorité des artefacts. Une base de données pouvant être utilisée pour des modèles de saillance mais aussi pour de la compression est proposée avec des masques binaires. Les différentes approches ont été validées par divers tests. Une extension de ces travaux pour des applications de résumé vidéo est proposée
The objective of this thesis is to find new methods for semantic video compatible with a traditional encoder like H.264/AVC. The main objective is to maintain the semantic and not the global quality. A target bitrate of 300 Kb/s has been fixed for defense and security applications. To do that, a complete chain of compression has been proposed. A study and new contributions on a spatio-temporal saliency model have been done to extract the important information in the scene. To reduce the bitrate, a resizing method named seam carving has been combined with the H.264/AVC encoder. Also, a metric combining SIFT points and SSIM has been created to measure the quality of objects without being disturbed by less important areas containing mostly artifacts. A database that can be used for testing the saliency model but also for video compression has been proposed, containing sequences with their manually extracted binary masks. All the different approaches have been thoroughly validated by different tests. An extension of this work on video summary application has also been proposed
Styles APA, Harvard, Vancouver, ISO, etc.
35

Rigaud, Christophe. « Segmentation and indexation of complex objects in comic book images ». Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS035/document.

Texte intégral
Résumé :
Dans ce manuscrit de thèse, nous détaillons et illustrons les différents défis scientifiques liés à l'analyse automatique d'images de bandes dessinées, de manière à donner au lecteur tous les éléments concernant les dernières avancées scientifiques en la matière ainsi que les verrous scientifiques actuels. Nous proposons trois approches pour l'analyse d'image de bandes dessinées. La première approche est dite "séquentielle'' car le contenu de l'image est décrit progressivement et de manière intuitive. Dans cette approche, les extractions se succèdent, en commençant par les plus simples comme les cases, le texte et les bulles qui servent ensuite à guider l'extraction d'éléments plus complexes tels que la queue des bulles et les personnages au sein des cases. La seconde approche propose des extractions indépendantes les unes des autres de manière à éviter la propagation d'erreur due aux traitements successifs. D'autres éléments tels que la classification du type de bulle et la reconnaissance de texte y sont aussi abordés. La troisième approche introduit un système fondé sur une base de connaissance a priori du contenu des images de bandes dessinées. Ce système permet de construire une description sémantique de l'image, dirigée par les modèles de connaissances. Il combine les avantages des deux approches précédentes et permet une description sémantique de haut niveau pouvant inclure des informations telles que l'ordre de lecture, la sémantique des bulles, les relations entre les bulles et leurs locuteurs ainsi que les interactions entre les personnages
In this thesis, we review, highlight and illustrate the challenges related to comic book image analysis in order to give to the reader a good overview about the last research progress in this field and the current issues. We propose three different approaches for comic book image analysis that are composed by several processing. The first approach is called "sequential'' because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel. The second approach addresses independent information extraction to recover the main drawback of the first approach : error propagation. This second method is called “independent” because it is composed by several specific extractors for each elements of the image without any dependence between them. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven and scalable system of comics image understanding. This system called “expert system” is composed by an inference engine and two models, one for comics domain and another one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification
Styles APA, Harvard, Vancouver, ISO, etc.
36

Pham, Ha Thai. « Analyse de "Time Lapse" optiques stéréo et d'images radar satellitaires : application à la mesure du déplacement de glaciers ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA004/document.

Texte intégral
Résumé :
L’observation de la Terre par des systèmes d’acquisition d’images permet de suivre l’évolution temporelle de phénomènes naturels tels que les séismes, les volcans ou les mouvements gravitaires. Différentes techniques existent dont l’imagerie satellitaire, la photogrammétrie terrestre et les mesures in-situ. Les séries temporelles d’images issues d’appareils photo automatiques (Time Lapse) sont une source d’informations en plein essor car elles offrent un compromis intéressant en termes de couverture spatiale et de fréquence d’observation pour mesurer les déplacements de surface de zones spécifiques. Cette thèse est consacrée à l’analyse de séries d’images issues de la photographie terrestre et de l’imagerie radar satellitaire pour la mesure du déplacement des glaciers Alpins. Nous nous intéressons en particulier aux problèmes du traitement de Time Lapse stéréo pour le suivi d’objets géophysiques dans des conditions terrain peu favorables à la photogrammétrie. Nous proposons une chaîne de traitement mono-caméra qui comprend les étapes de sélection automatique des images, de recalage et de calcul de champs de déplacement bidimensionnel (2D). L’information apportée par les couples stéréo est ensuite exploitée à l’aide du logiciel MICMAC pour reconstruire le relief et obtenir le déplacement tridimensionnel(3D). Plusieurs couples d’images radar à synthèse d’ouverture (SAR) ont également été traités à l’aide des outils EFIDIR pour obtenir des champs de déplacement 2D dans la géométrie radar sur des orbites ascendantes ou descendantes. La combinaison de mesures obtenues quasi-simultanément sur ces deux types d’orbites permet de reconstruire le déplacement 3D. Ces méthodes ont été mises en oeuvre sur des séries de couples stéréo acquis par deux appareils photo automatiques installés sur la rive droite du glacier d’Argentière et sur des images du satellite TerraSAR-X couvrant le massif du Mont-Blanc. Les résultats sont présentés sur des données acquises lors d’une expérimentation multi-instruments menée en collaboration avec l’IGN à l’automne 2013, incluant le déploiement d’un réseau de Géocubes qui ont fournit des mesures GPS. Elles sont utilisées pour évaluer la précision des résultats obtenus par télédétection proximale et spatiale sur ce type de glacier
Earth observation by image acquisition systems allows the survey of temporal evolution of natural phenomena such as earthquakes, volcanoes or gravitational movements. Various techniques exist including satellite imagery, terrestrial photogrammetry and in-situ measurements. Image time series from automatic cameras (Time Lapse) are a growing source of information since they offer an interesting compromise in terms of spatial coverage and observation frequency in order to measure surface motion in specific areas. This PhD thesis is devoted to the analysis of image time series from terrestrial photography and satellite radar imagery to measure the displacement of Alpine glaciers. We are particularly interested in Time Lapse stereo processing problems for monitoring geophysical objects in unfavorable conditions for photogrammetry. We propose a single-camera processing chain that includes the steps of automatic photograph selection, coregistration and calculation of two-dimensional (2D) displacement field. The information provided by the stereo pairs is then processed using the MICMAC software to reconstruct the relief and get the three-dimensional (3D) displacement. Several pairs of synthetic aperture radar (SAR) images were also processed with the EFIDIR tools to obtain 2D displacement fields in the radar geometry in ascending or descending orbits. The combination of measurements obtained almost simultaneously on these two types of orbits allows the reconstruction of the 3D displacement. These methods have been implemented on time series of stereo pairs acquired by two automatic cameras installed on the right bank of the Argentière glacier and on TerraSAR-X satellite images covering the Mont-Blanc massif. The results are presented on data acquired during a multi-instrument experiment conducted in collaboration with the French Geographic National Institute (IGN) during the fall of 2013,with a network of Géocubes which provided GPS measurements. They are used to evaluate the accuracy of the results obtained by proximal and remote sensing on this type of glacier
Styles APA, Harvard, Vancouver, ISO, etc.
37

Ozeré, Solène. « Modélisation mathématique de problèmes relatifs au recalage d'images ». Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0010/document.

Texte intégral
Résumé :
Ce travail porte sur la modélisation de problèmes liés au recalage d'images. Le recalage consiste à trouver une déformation optimale de sorte qu'une image déformée s'aligne sur une image de référence. Il s'agit d'une technique que l'on rencontre dans de nombreux domaines, comme l'imagerie médicale, la comparaison de données ou le suivi de formes. Le premier chapitre se concentre sur le problème de préservation de la topologie. Cette condition de préservation de la topologie est importante lorsque la déformation recherchée traduit des propriétés physiques des objets soumis à la déformation. Les chapitres suivants proposent la construction de différentes méthodes de recalage d'images fondées sur la théorie de l'élasticité non linéaire. En effet, les objets à apparier sont supposés être des matériaux hyper-élastiques. Différents termes d'attaches aux données ont été explorés ainsi que deux modèles conjoints de segmentation et recalage
This work focuses on the modelling of problems related to image registration. Image registration consists in finding an optimal deformation such that a deformed image is aligned with a reference image. It is an important task encountered in a large range of applications such as medical imaging, comparison of data or shape tracking. The first chapter concerns the problem of topology preservation. This condition of topology preservation is important when the sought deformation reflects physical properties of the objects to be distorted. The following chapters propose several methods of image registration based on the nonlinear elasticity theory. Indeed, the objects to be matched are modelled as hyperelastic materials. Different fidelity terms have been investigated as well as two joint segmentation/registration models
Styles APA, Harvard, Vancouver, ISO, etc.
38

Peschoud, Cécile. « Etude de la complémentarité et de la fusion des images qui seront fournies par les futurs capteurs satellitaires OLCI/Sentinel 3 et FCI/Meteosat Troisième Génération ». Thesis, Toulon, 2016. http://www.theses.fr/2016TOUL0012/document.

Texte intégral
Résumé :
L’objectif de cette thèse était de proposer, valider et comparer des méthodes de fusion d’images provenant d’un capteur héliosynchrone multispectral et d’un capteur géostationnaire multispectral, pour produire des cartes de composition de l’eau détaillées spatialement et les mieux rafraîchies possibles. Notre méthodologie a été appliquée au capteur héliosynchrone OLCI sur Sentinel-3 et au capteur géostationnaire FCI sur Météosat Troisième Génération. Dans un premier temps, la sensibilité des deux capteurs à la couleur de l’eau a été analysée. Les images des capteurs OLCI et FCI n’étant pas encore disponibles, ont donc été simulées sur le Golfe du Lion, grâce à des cartes d’hydrosols (chlorophylle, matières en suspension et matières organiques dissoutes) et à des modèles de transfert radiatifs (Hydrolight et Modtran). Deux méthodes de fusion ont ensuite été adaptées puis testées à partir des images simulées : la méthode SSTF (Spatial, Spectral, Temporal Fusion) inspirée de la fusion de (Vanhellemont et al., 2014) et la méthode STARFM (Spatial Temporal Adaptative Reflectance Fusion Model) de (Gao et al., 2006). Les résultats de fusion ont alors été validés avec des images de référence simulées et les cartes d’hydrosols estimées à partir de ces images ont été comparées aux cartes utilisées en entrée des simulations. Pour améliorer le SNR des images FCI, un filtrage temporel a été proposé. Enfin, comme le but est d’obtenir des indicateurs de qualité de l’eau, nous avons testé les méthodes de fusion sur les cartes d’hydrosols estimées à partir des images FCI et OLCI simulées
The objective of this thesis was to propose, validate and compare fusion methods of images provided by a Low Earth Orbit multispectral sensor and a geostationary multispectral sensor in order to obtain water composition maps with spatial details and high temporal resolution. Our methodology was applied to OLCI Low Earth Orbit sensor on Sentinel-3 and FCI Geostationary Earth Orbit (GEO) sensor on Meteosat Third Generation. Firstly, the sensor sensivity, regarding the water color, was analyzed. As the images from both sensors were not available, they were simulated on the Golf of Lion, thanks to hydrosol maps (chl, SPM and CDOM) and radiative transfer models (Hydrolight and Modtran). Two fusion methods were then adapted and tested with the simulated images: the SSTF (Spatial, Spectral, Temporal Fusion) method inspired from the method developed by (Vanhellemont et al., 2014)) and the STARFM (Spatial Temporal Adaptative Reflectance Fusion Model) method from (Gao et al., 2006)). The fusion results were then validated with the simulated reference images and by estimating the hydrosol maps from the fusion images and comparing them with the input maps of the simulation process. To improve FCI SNR, a temporal filtering was proposed. Finally, as the aim is to obtain a water quality indicator, the fusion methods were adapted and tested on the hydrosol maps estimated with the FCI and OLCI simulated images
Styles APA, Harvard, Vancouver, ISO, etc.
39

Hadmi, Azhar. « Protection des données visuelles : analyse des fonctions de hachage perceptuel ». Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20159/document.

Texte intégral
Résumé :
Avec une croissance considérable dans le domaine de la technologie multimédia et de la forte disponibilité des logiciels de traitement d'image, il est désormais facile de manipuler les images numériques. En même temps, il est devenu possible de réaliser des contrefaçons très élaborées, en laissant très peu de traces. Cela présente un grave problème, en particulier, si l'authenticité de l'image numérique est exigée. L'authentification des images devrait se baser sur leurs contenus visuels et non pas sur leurs contenus binaires. Par conséquent, pour authentifier une image, il faut tolérer quelques manipulations acceptables que pourrait subir une image telles que la compression JPEG et l'ajout de bruit Gaussien. En effet, ces manipulations préservent l'aspect visuel de l'image. En même temps un système de hachage perceptuel doit être suffisamment fragile pour détecter les manipulations malveillantes qui modifient l'interprétation du contenu sémantique de l'image comme l'ajout de nouveaux objets, la suppression ou la modification majeure d'objets existants.Dans cette thèse, nous nous intéressons aux fonctions de hachage perceptuel pour l'authentification et le contrôle d'intégrité des images numériques. Dans ce but, nous présentons tous les aspects relatifs aux fonctions de hachage perceptuel. Puis, nous exposons les contraintes qu'un système de hachage perceptuel doit satisfaire pour répondre aux exigences souhaitées au niveau de la robustesse des signatures perceptuelles. Enfin, nous présentons une méthode permettant d'améliorer la robustesse et la sécurité d'un système dehachage perceptuel
The widespread use of multimedia technology has made it relatively easy to manipulate and tamper visual data. In particular, digital image processing and image manipulation tools offer facilities to intentionally alter image content without leaving perceptual traces. This presents a serious problem, particularly if the authenticity of the digital image is required. The image authentication should be based on their visual content and not on their binary content. Therefore, to authenticate an image, some acceptable manipulations that could undergoes an image, such as JPEG compression and Gaussian noise addition, must tolerated. Indeed, these manipulations preserve the visual appearance of the image. At the same time a perceptual hashing system should be sufficiently sensitive to detect malicious manipulations that modify the interpretation of the semantic content of the imagesuch as adding new objects, deleting or major modification of existing objects.In this thesis, we focus on perceptual hash functions for authentication and integrityverification of digital images. For this purpose, we present all aspects of perceptual hashfunctions. Then, we discuss the constraints that perceptual hashing system must satisfy tomeet desired level of robustness of perceptual signatures. Finally, we present a method toimprove the robustness and security of a system of perceptual hashing
Styles APA, Harvard, Vancouver, ISO, etc.
40

Mehri, Maroua. « Historical document image analysis : a structural approach based on texture ». Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS005/document.

Texte intégral
Résumé :
Les récents progrès dans la numérisation des collections de documents patrimoniaux ont ravivé de nouveaux défis afin de garantir une conservation durable et de fournir un accès plus large aux documents anciens. En parallèle de la recherche d'information dans les bibliothèques numériques ou l'analyse du contenu des pages numérisées dans les ouvrages anciens, la caractérisation et la catégorisation des pages d'ouvrages anciens a connu récemment un regain d'intérêt. Les efforts se concentrent autant sur le développement d'outils rapides et automatiques de caractérisation et catégorisation des pages d'ouvrages anciens, capables de classer les pages d'un ouvrage numérisé en fonction de plusieurs critères, notamment la structure des mises en page et/ou les caractéristiques typographiques/graphiques du contenu de ces pages. Ainsi, dans le cadre de cette thèse, nous proposons une approche permettant la caractérisation et la catégorisation automatiques des pages d'un ouvrage ancien. L'approche proposée se veut indépendante de la structure et du contenu de l'ouvrage analysé. Le principal avantage de ce travail réside dans le fait que l'approche s'affranchit des connaissances préalables, que ce soit concernant le contenu du document ou sa structure. Elle est basée sur une analyse des descripteurs de texture et une représentation structurelle en graphe afin de fournir une description riche permettant une catégorisation à partir du contenu graphique (capturé par la texture) et des mises en page (représentées par des graphes). En effet, cette catégorisation s'appuie sur la caractérisation du contenu de la page numérisée à l'aide d'une analyse des descripteurs de texture, de forme, géométriques et topologiques. Cette caractérisation est définie à l'aide d'une représentation structurelle. Dans le détail, l'approche de catégorisation se décompose en deux étapes principales successives. La première consiste à extraire des régions homogènes. La seconde vise à proposer une signature structurelle à base de texture, sous la forme d'un graphe, construite à partir des régions homogènes extraites et reflétant la structure de la page analysée. Cette signature assure la mise en œuvre de nombreuses applications pour gérer efficacement un corpus ou des collections de livres patrimoniaux (par exemple, la recherche d'information dans les bibliothèques numériques en fonction de plusieurs critères, ou la catégorisation des pages d'un même ouvrage). En comparant les différentes signatures structurelles par le biais de la distance d'édition entre graphes, les similitudes entre les pages d'un même ouvrage en termes de leurs mises en page et/ou contenus peuvent être déduites. Ainsi de suite, les pages ayant des mises en page et/ou contenus similaires peuvent être catégorisées, et un résumé/une table des matières de l'ouvrage analysé peut être alors généré automatiquement. Pour illustrer l'efficacité de la signature proposée, une étude expérimentale détaillée a été menée dans ce travail pour évaluer deux applications possibles de catégorisation de pages d'un même ouvrage, la classification non supervisée de pages et la segmentation de flux de pages d'un même ouvrage. En outre, les différentes étapes de l'approche proposée ont donné lieu à des évaluations par le biais d'expérimentations menées sur un large corpus de documents patrimoniaux
Over the last few years, there has been tremendous growth in digitizing collections of cultural heritage documents. Thus, many challenges and open issues have been raised, such as information retrieval in digital libraries or analyzing page content of historical books. Recently, an important need has emerged which consists in designing a computer-aided characterization and categorization tool, able to index or group historical digitized book pages according to several criteria, mainly the layout structure and/or typographic/graphical characteristics of the historical document image content. Thus, the work conducted in this thesis presents an automatic approach for characterization and categorization of historical book pages. The proposed approach is applicable to a large variety of ancient books. In addition, it does not assume a priori knowledge regarding document image layout and content. It is based on the use of texture and graph algorithms to provide a rich and holistic description of the layout and content of the analyzed book pages to characterize and categorize historical book pages. The categorization is based on the characterization of the digitized page content by texture, shape, geometric and topological descriptors. This characterization is represented by a structural signature. More precisely, the signature-based characterization approach consists of two main stages. The first stage is extracting homogeneous regions. Then, the second one is proposing a graph-based page signature which is based on the extracted homogeneous regions, reflecting its layout and content. Afterwards, by comparing the different obtained graph-based signatures using a graph-matching paradigm, the similarities of digitized historical book page layout and/or content can be deduced. Subsequently, book pages with similar layout and/or content can be categorized and grouped, and a table of contents/summary of the analyzed digitized historical book can be provided automatically. As a consequence, numerous signature-based applications (e.g. information retrieval in digital libraries according to several criteria, page categorization) can be implemented for managing effectively a corpus or collections of books. To illustrate the effectiveness of the proposed page signature, a detailed experimental evaluation has been conducted in this work for assessing two possible categorization applications, unsupervised page classification and page stream segmentation. In addition, the different steps of the proposed approach have been evaluated on a large variety of historical document images
Styles APA, Harvard, Vancouver, ISO, etc.
41

Larburu, Natacha. « Etude structurale de la biogenèse de la petite sous-unité ribosomique humaine par cryo-microscopie électronique et analyse d'images ». Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30336/document.

Texte intégral
Résumé :
La biogenèse des ribosomes eucaryotes est un processus complexe qui implique la production et l'assemblage de 4 ARNr et 80 protéines. La production des deux sous-unités du ribosome, 40S et 60S, débute dans le nucléole par la synthèse d'un long précurseur commun contenant les séquences des ARNr matures et se termine dans le cytoplasme où ont lieu les dernières étapes d'assemblage des protéines ribosomiques et de clivage des ARNr. La production de ribosomes nécessite la participation de plus de 200 co-facteurs, qui catalysent les clivages et modifications des ARNr, coordonnent leur repliement et leur association aux protéines ribosomiques, et assurent des étapes de contrôle-qualité. Ces protéines sont associées aux particules en cours de maturation et absentes des sous-unités matures. Cette voie de synthèse, globalement conservée chez les eucaryotes, a été principalement étudiée chez la levure. Cependant, des études récentes ont montré des différences importantes de ce processus entre levure et mammifères. Un des verrous importants pour comprendre la fonction des co-facteurs, est l'absence de données sur la structure des précurseurs des sous-unités ribosomiques. J'ai donc entrepris une étude structurale de l'assemblage cytoplasmique de la petite sous-unité ribosomique chez l'homme par cryo-microscopie électronique à transmission. Le but de ma thèse était de déterminer la structure 3D des précurseurs de la petite sous-unité ribosomique purifiés à différentes étape de leur maturation. Ce travail a été conduit en collaboration avec l'équipe du Pr. Ulrike Kutay (ETH Zurich) pour la purification des particules pré-40S à partir de cellules humaines. La première structure 3D de particule pré-40S intermédiaire purifiée en étiquetant le co-facteur LTV1 a été déterminée à 19Å de résolution. Dans un deuxième temps, la structure 3D de la particule pré-40S tardive purifiée à via RIO1(KD) a aussi été déterminée à 15Å de résolution. Ces données nous ont permis de proposer un modèle de localisation des co-facteurs sur les précurseurs de la petite sous-unité ribosomique et de montrer une nouvelle différence dans la formation de la petite sous-unité chez l'Homme comparé à la levure, du fait de la présence de la protéine RACK1 sur les particules pré-40S humaines. La comparaison des structures des précurseurs de la petite sous-unité obtenues a permis de mettre en lumière l'existence de remodelages structuraux de la particule pré-40S au cours de sa maturation. Ce travail met en lumière les premières structures 3D de particules pré-40S humaines et pose les fondements méthodologiques d'explorations futures de la dynamique structurale des particules pré-ribosomiques
Ribosome biogenesis is a complex process that requires the production and the correct assembly of the 4 rRNAs with 80 ribosomal proteins. In Human, the production of the two subunits, 40S and 60S, is initiated by the transcription of a pre-ribosomal rRNA precursor to the mature 18S, 5.8S, and 28S rRNAs by the RNA polymerase I, which is chemically modified and trimmed by endo- and exoribonuclease, in order to form the mature rRNAs. The nascent pre rRNA associated with ribosomal proteins, small ribonucleoprotein particles (snoRNP) and so called co-factors leading to the assembly of an initial 90S particle. This particle is then split into pre-40S and pre-60S pre-ribosomal particles that fallow independent maturation to form the mature subunit into the cytoplasm. Production of eukaryotic ribosomes implies the transient intervention of more than 200 associated proteins and ribonucleoprotein particles, that are absent from the mature subunits. Synthesis of ribosome, globally conserved in eukaryotes, has been principally studied in yeast. However, recent studies reveal that this process is more complex in human compared in yeast. An important bottleneck in this domain is the lack of structural data concerning the formation of intermediate ribosomal subunits to understand the function of assembly factors. Determination of the structural remodeling of pre-ribosomal particles is crucial to understand the molecular mechanism of this complex process. So I have undertaken a structural study on the assembly of the small ribosomal subunit using cryo-electron microscopy and image analysis. The goal of my thesis is to determine the 3D structures of human pre-40S particles at different maturation stages to see the structural remodeling that occurs during the biogenesis of the small ribosomal subunit. We are collaborating with the group of Pr Ulrike Kutay at ETH Zurich, who purify human pre-40S particles. The 3D structures of human pre-40S particles purified at an intermediate and late maturation stages, has been determined with a resolution of 19 and 15Å respectively. Supplementary densities, compared to the mature subunit, indicate the presence of assembly factors and show the unexpected presence of the RACK1 protein in the precursor of the human small ribosomal subunit in the cytoplasm. The comparison of the 3D structures of human pre-40S particle allows showing the structural remodeling that occur during the maturation of the small ribosomal subunit. This work provides the first 3D structure of human pre-40S particles and laid the methodological foundations for future exploration of the structural dynamics of pre-ribosomal particles
Styles APA, Harvard, Vancouver, ISO, etc.
42

Elbergui, Ayda. « Amélioration des techniques de reconnaissance automatique de mines marines par analyse de l'écho à partir d'images sonar haute résolution ». Thesis, Brest, 2013. http://www.theses.fr/2013BRES0042/document.

Texte intégral
Résumé :
La classification des cibles sous-marines est principalement basée sur l'analyse de l'ombre acoustique. La nouvelle génération des sonars d'imagerie fournit une description plus précise de la rétrodiffusion de l'onde acoustique par les cibles. Par conséquent, la combinaison de l'analyse de l'ombre et de l'écho est une voie prometteuse pour améliorer la classification automatique des cibles. Quelques systèmes performants de classification automatique des cibles s'appuient sur un modèle pour faire l'apprentissage au lieu d'utiliser uniquement des réponses expérimentales ou simulées de cibles pour entraîner le classificateur. Avec une approche basée modèle, un bon niveau de performance en classification peut être obtenu si la modélisation de la réponse acoustique de la cible est suffisamment précise. La mise en œuvre de la méthode de classification a nécessité de modéliser avec précision la réponse acoustique des cibles. Le résultat de cette modélisation est un simulateur d'images sonar (SIS). Comme les sonars d'imagerie fonctionnent à haute et très haute fréquence le modèle est basé sur le lancer de rayons acoustiques. Plusieurs phénomènes sont pris en compte pour augmenter le réalisme de la réponse acoustique (les effets des trajets multiples, l'interaction avec le fond marin, la diffraction, etc.). La première phase du classificateur utilise une approche basée sur un modèle. L'information utile dans la signature acoustique de la cible est nommée « A-scan ». Dans la pratique, l'A-scan de la cible détectée est comparé à un ensemble d'A-scans générés par SIS dans les mêmes conditions opérationnelles. Ces gabarits (A-scans) sont créés en modélisant des objets manufacturés de formes simples et complexes (mines ou non mines). Cette phase intègre un module de filtrage adapté pour permettre un résultat de classification plus souple capable de fournir un degré d'appartenance en fonction du maximum de corrélation obtenu. Avec cette approche, l'ensemble d'apprentissage peut être enrichi afin d'améliorer la classification lorsque les classes sont fortement corrélées. Si la différence entre les coefficients de corrélation de l'ensemble de classes les plus probables n'est pas suffisante, le résultat est considéré ambigu. Une deuxième phase est proposée afin de distinguer ces classes en ajoutant de nouveaux descripteurs et/ou en ajoutant davantage d'A-scans dans la base d'apprentissage et ce, dans de nouvelles configurations proches des configurations ambiguës. Ce processus de classification est principalement évalué sur des données simulées et sur un jeu limité de données réelles. L'utilisation de l'A-scan a permis d'atteindre des bonnes performances de classification en mono-vue et a amélioré le résultat de classification pour certaines ambiguïtés récurrentes avec des méthodes basées uniquement sur l'analyse d'ombre
Underwater target classification is mainly based on the analysis of the acoustic shadows. The new generation of imaging sonar provides a more accurate description of the acoustic wave scattered by the targets. Therefore, combining the analysis of shadows and echoes is a promising way to improve automated target classification. Some reliable schemes for automated target classification rely on model based learning instead of only using experimental samples of target acoustic response to train the classifier. With this approach, a good performance level in classification can be obtained if the modeling of the target acoustic response is accurate enough. The implementation of the classification method first consists in precisely modeling the acoustic response of the targets. The result of the modeling process is a simulator called SIS (Sonar Image Simulator). As imaging sonars operate at high or very high frequency the core of the model is based on acoustical ray-tracing. Several phenomena have been considered to increase the realism of the acoustic response (multi-path propagation, interaction with the surrounding seabed, edge diffraction, etc.). The first step of the classifier consists of a model-based approach. The classification method uses the highlight information of the acoustic signature of the target called « A-scan ». This method consists in comparing the A-scan of the detected target with a set of simulated A-scans generated by SIS in the same operational conditions. To train the classifier, a Template base (A-scans) is created by modeling manmade objects of simple and complex shapes (Mine Like Objects or not). It is based on matched filtering in order to allow more flexible result by introducing a degree of match related to the maximum of correlation coefficient. With this approach the training set can be extended increasingly to improve classification when classes are strongly correlated. If the difference between the correlation coefficients of the most likely classes is not sufficient the result is considered ambiguous. A second stage is proposed in order to discriminate these classes by adding new features and/or extending the initial training data set by including more A-scans in new configurations derived from the ambiguous ones. This classification process is mainly assessed on simulated side scan sonar data but also on a limited data set of real data. The use of A-scans have achieved good classification performances in a mono-view configuration and can improve the result of classification for some remaining confusions using methods only based on shadow analysis
Styles APA, Harvard, Vancouver, ISO, etc.
43

Bouyrie, Mathieu. « Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA032/document.

Texte intégral
Résumé :
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion
In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process
Styles APA, Harvard, Vancouver, ISO, etc.
44

Sellami, Akrem. « Interprétation sémantique d'images hyperspectrales basée sur la réduction adaptative de dimensionnalité ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0037/document.

Texte intégral
Résumé :
L'imagerie hyperspectrale permet d'acquérir des informations spectrales riches d'une scène dans plusieurs centaines, voire milliers de bandes spectrales étroites et contiguës. Cependant, avec le nombre élevé de bandes spectrales, la forte corrélation inter-bandes spectrales et la redondance de l'information spectro-spatiale, l'interprétation de ces données hyperspectrales massives est l'un des défis majeurs pour la communauté scientifique de la télédétection. Dans ce contexte, le grand défi posé est la réduction du nombre de bandes spectrales inutiles, c'est-à-dire de réduire la redondance et la forte corrélation de bandes spectrales tout en préservant l'information pertinente. Par conséquent, des approches de projection visent à transformer les données hyperspectrales dans un sous-espace réduit en combinant toutes les bandes spectrales originales. En outre, des approches de sélection de bandes tentent à chercher un sous-ensemble de bandes spectrales pertinentes. Dans cette thèse, nous nous intéressons d'abord à la classification d'imagerie hyperspectrale en essayant d'intégrer l'information spectro-spatiale dans la réduction de dimensions pour améliorer la performance de la classification et s'affranchir de la perte de l'information spatiale dans les approches de projection. De ce fait, nous proposons un modèle hybride permettant de préserver l'information spectro-spatiale en exploitant les tenseurs dans l'approche de projection préservant la localité (TLPP) et d'utiliser l'approche de sélection non supervisée de bandes spectrales discriminantes à base de contraintes (CBS). Pour modéliser l'incertitude et l'imperfection entachant ces approches de réduction et les classifieurs, nous proposons une approche évidentielle basée sur la théorie de Dempster-Shafer (DST). Dans un second temps, nous essayons d'étendre le modèle hybride en exploitant des connaissances sémantiques extraites à travers les caractéristiques obtenues par l'approche proposée auparavant TLPP pour enrichir la sélection non supervisée CBS. En effet, l'approche proposée permet de sélectionner des bandes spectrales pertinentes qui sont à la fois informatives, discriminantes, distinctives et peu redondantes. En outre, cette approche sélectionne les bandes discriminantes et distinctives en utilisant la technique de CBS en injectant la sémantique extraite par les techniques d'extraction de connaissances afin de sélectionner d'une manière automatique et adaptative le sous-ensemble optimal de bandes spectrales pertinentes. La performance de notre approche est évaluée en utilisant plusieurs jeux des données hyperspectrales réelles
Hyperspectral imagery allows to acquire a rich spectral information of a scene in several hundred or even thousands of narrow and contiguous spectral bands. However, with the high number of spectral bands, the strong inter-bands spectral correlation and the redundancy of spectro-spatial information, the interpretation of these massive hyperspectral data is one of the major challenges for the remote sensing scientific community. In this context, the major challenge is to reduce the number of unnecessary spectral bands, that is, to reduce the redundancy and high correlation of spectral bands while preserving the relevant information. Therefore, projection approaches aim to transform the hyperspectral data into a reduced subspace by combining all original spectral bands. In addition, band selection approaches attempt to find a subset of relevant spectral bands. In this thesis, firstly we focus on hyperspectral images classification attempting to integrate the spectro-spatial information into dimension reduction in order to improve the classification performance and to overcome the loss of spatial information in projection approaches.Therefore, we propose a hybrid model to preserve the spectro-spatial information exploiting the tensor model in the locality preserving projection approach (TLPP) and to use the constraint band selection (CBS) as unsupervised approach to select the discriminant spectral bands. To model the uncertainty and imperfection of these reduction approaches and classifiers, we propose an evidential approach based on the Dempster-Shafer Theory (DST). In the second step, we try to extend the hybrid model by exploiting the semantic knowledge extracted through the features obtained by the previously proposed approach TLPP to enrich the CBS technique. Indeed, the proposed approach makes it possible to select a relevant spectral bands which are at the same time informative, discriminant, distinctive and not very redundant. In fact, this approach selects the discriminant and distinctive spectral bands using the CBS technique injecting the extracted rules obtained with knowledge extraction techniques to automatically and adaptively select the optimal subset of relevant spectral bands. The performance of our approach is evaluated using several real hyperspectral data
Styles APA, Harvard, Vancouver, ISO, etc.
45

Marciano, Abraham. « Méthodes d'Analyse et de Recalage d'images radiographiques de fret et de Véhicules ». Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED040/document.

Texte intégral
Résumé :
La société contemporaine fait face à un niveau de menace sans précédent depuis la seconde guerre mondiale. La lutte contre le trafic illicite mobilise aussi l’ensemble desorganes de police, visant à endiguer le financement du crime organisé. Dans cet effort, les autorités s’engagent à employer des moyens de plus en plus modernes, afin notamment d’automatiser les processus d’inspection. L’objectif de cette étude est de développer des outils de vision par ordinateur afin d’assister les officiers de douanes dans la détection d’armes et de narcotiques. Letravail présenté examine l’emploi de techniques avancées de classification et de recalage d’images pour l’identification d’irrégularités dans des acquisitions radiographiques de fret. Plutôt que de recourir à la reconnaissance par apprentissage, nos méthodes revêtent un intérêt particulier lorsque les objets ciblés présentent des caractéristiques visuelles variées. De plus, elles augmentent notablement la détectabilité d’éléments cachés dans des zones denses, là où même les algorithmes de reconnaissance n’identifieraient pas d’anomalie. Nos travaux détaillent l’état de l’art des méthodes de classification et de recalage, explorant aussi diverses pistes de résolution. Les algorithmes sont testés sur d’importantes bases de données pour apprécier visuellement et numériquement leurs performances
Our societies, faced with an unprecedented level of security threat since WWII, must provide fast and adaptable solutions to cope with a new kind of menace. Illicit trade also, oftencorrelated with criminal actions, is viewed as a defining stake by governments and agencies. Enforcement authorities are thus very demandingin terms of technological features, asthey explicitly aim at automating inspection processes. The main objective of our research is to develop assisting tools to detect weapons and narcotics for lawenforcement officers. In the present work, we intend to employ and customize both advanced classification and image registration techniques for irregularity detection in X-ray cargo screening scans. Rather than employing machine-learning recognition techniques, our methods prove to be very efficient while targeting a very diverse type of threats from which no specific features can be extracted. Moreover, the proposed techniques significantly enhance the detection capabilities for law-enforcement officers, particularly in dense regions where both humans or trained learning models would probably fail. Our work reviews state-of-the art methods in terms of classification and image registration. Various numerical solutions are also explored. The proposed algorithms are tested on a very large number ofimages, showing their necessity and performances both visually and numerically
Styles APA, Harvard, Vancouver, ISO, etc.
46

Li, Yuet Hee Mary Lynn. « Caractérisation texturale et analyse par stéréocorrélation d'images de la déformation des fromages à pâte molle et de leurs simulants formulés ». Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL062N/document.

Texte intégral
Résumé :
Des gels ont été formulés à partir de mélanges de gélatine et de polysaccharides - le guar, le karaya, la xanthane, la maltodextrine et l’amidon - afin de reproduire les propriétés texturales du Camembert et du Coulommiers. La fermeté, le module d’élasticité et le temps de relaxation, mesurés à partir des essais de pénétrométrie et de relaxation, ont été utilisés afin de comparer les gels et les fromages. Les paramètres rhéologiques du mélange de gélatine, de maltodextrine et d’amidon s’approchaient le plus de ceux des fromages. Un plan de mélange à trois composants a été utilisé pour optimiser la concentration des constituants du simulant. Cette approche a permis de développer des modèles mathématiques qui prédisent les effets de chaque composant sur les paramètres texturaux du simulant. Elle a aussi mis en évidence une corrélation linéaire entre ces paramètres et la composition du gel. Des modifications texturales des simulants ont été induites par ajout de Subtilisine Carlsberg afin d’imiter l’évolution de la texture des fromages lors de la maturation. Une différence entre l’évolution des propriétés texturales des simulants et celle du fromage a été notée. La numérisation tridimensionnelle a été utilisée comme nouvel outil pour caractériser la texture. Ces systèmes sont capables de distinguer des gels et des fromages ayant des comportements rhéologiques différents. Les nouveaux paramètres obtenus, corrélés aux propriétés texturales des fromages et simulants, pourraient améliorer les modèles prédisant les mesures sensorielles hédoniques à partir des mesures instrumentales
Various gels formulated from mixtures of gelatin and polysaccharides - guar, karaya gum, xanthan gum, maltodextrin and starch - were elaborated to simulate soft cheeses (Camembert and Coulommiers) texture. Comparisons between gels and cheeses were based on firmness, elasticity modulus and relaxation time constants, obtained from penetrometry and stress relaxation tests. Gels made up of gelatin, maltodextrin and starch were found to imitate best the textural properties of the soft cheeses. A three-component mixture design approach was used to determine the optimum component concentration of the simulants. Mathematical models developed showed linear dependence of the rheological parameters on composition of simulants. Enzyme Subtilisin Carlsberg (Alcalase®) successful induced gradual modifications in rheological parameters of simulants. The rate of change of textural properties occurring in Coulommiers cheese during maturation was however different from that of the simulants. Two optical three-dimensional techniques as new tools for food texture assessment were also investigated. Digital image correlation and the Breuckmann scanning systems were successful in distinguishing between gels and cheeses varying in firmness and viscoelastic properties. New parameters obtained from digital image correlation and Breuckmann scanning systems were related to the textural properties of the cheeses and their simulants. These parameters may be used to develop models predicting accurately the sensory texture of food from instrumental measurements
Styles APA, Harvard, Vancouver, ISO, etc.
47

Oriot, Jean-Claude. « Analyse d'images de documents à structures variées : application à la localisation du bloc adresse sur les objets postaux ». Nantes, 1992. http://www.theses.fr/1992NANT2061.

Texte intégral
Résumé :
Cette these concerne une etude menee dans le cadre de l'analyse de documents. L'application envisagee porte sur la localisation du bloc adresse sur les objets postaux plats (documents a structures variees: grandes enveloppes, publicite, journaux, magazines, etc. ). Sur ce type d'images, la localisation est une etape fondamentale avant la phase de reconnaissance des adresses. Il s'agit de rechercher une region d'interet dans un environnement donnee. Cette region d'interet correspond a une entite structurelle composee de lignes de texte (le bloc adresse). L'etude met en evidence l'heterogeneite des objets plats. Deux categories principales d'objets sont decrites et traitees plus particulierement. Pour la premiere, les objets charges, il s'agit de rechercher un groupe de lignes de texte aux caracteristiques mal specifiees (tout type d'ecriture) place dans un environnement tres dense, variable et degrade (phenomenes d'occulation). Ces deux chaines de traitements font appel a une meme strategie generale qui consiste a generer une liste de blocs adresses candidats puis a selectionner le meilleur. La resolution spatiale des images est relativement basse (75 dpi) et nous avons particulierement mis l'accent sur les traitements de bas niveaux. L'approche est validee par evaluation des performances sur une grande base d'images de documents
Styles APA, Harvard, Vancouver, ISO, etc.
48

Garnier, Mickaël. « Modèles descriptifs de relations spatiales pour l'aide au diagnostic d'images biomédicales ». Thesis, Paris 5, 2014. http://www.theses.fr/2014PA05S015/document.

Texte intégral
Résumé :
La pathologie numérique s’est développée ces dernières années grâce à l’avancée récente des algorithmes d’analyse d’images et de la puissance de calcul. Notamment, elle se base de plus en plus sur les images histologiques. Ce format de données a la particularité de révéler les objets biologiques recherchés par les experts en utilisant des marqueurs spécifiques tout en conservant la plus intacte possible l’architecture du tissu. De nombreuses méthodes d’aide au diagnostic à partir de ces images se sont récemment développées afin de guider les pathologistes avec des mesures quantitatives dans l’établissement d’un diagnostic. Les travaux présentés dans cette thèse visent à adresser les défis liés à l’analyse d’images histologiques, et à développer un modèle d’aide au diagnostic se basant principalement sur les relations spatiales, une information que les méthodes existantes n’exploitent que rarement. Une technique d’analyse de la texture à plusieurs échelles est tout d’abord proposée afin de détecter la présence de tissu malades dans les images. Un descripteur d’objets, baptisé Force Histogram Decomposition (FHD), est ensuite introduit dans le but d’extraire les formes et l’organisation spatiale des régions définissant un objet. Finalement, les images histologiques sont décrites par les FHD mesurées à partir de leurs différents types de tissus et des objets biologiques marqués qu’ils contiennent. Les expérimentations intermédiaires ont montré que les FHD parviennent à correctement reconnaitre des objets sur fonds uniformes y compris dans les cas où les relations spatiales ne contiennent à priori pas d’informations pertinentes. De même, la méthode d’analyse de la texture s’avère satisfaisante dans deux types d’applications médicales différents, les images histologiques et celles de fond d’œil, et ses performances sont mises en évidence au travers d’une comparaison avec les méthodes similaires classiquement utilisées pour l’aide au diagnostic. Enfin, la méthode dans son ensemble a été appliquée à l’aide au diagnostic pour établir la sévérité d’un cancer via deux ensembles d’images histologiques, un de foies métastasés de souris dans le contexte du projet ANR SPIRIT, et l’autre de seins humains dans le cadre du challenge CPR 2014 : Nuclear Atypia. L’analyse des relations spatiales et des formes à deux échelles parvient à correctement reconnaitre les grades du cancer métastasé dans 87, 0 % des cas et fourni des indications quant au degré d’atypie nucléaire. Ce qui prouve de fait l’efficacité de la méthode et l’intérêt d’encoder l’organisation spatiale dans ce type d’images particulier
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. Particularly, it is more and more based on histology images. This modality of images presents the advantage of showing only the biological objects targeted by the pathologists using specific stains while preserving as unharmed as possible the tissue structure. Numerous computer-aided diagnosis methods using these images have been developed this past few years in order to assist the medical experts with quantitative measurements. The studies presented in this thesis aim at adressing the challenges related to histology image analysis, as well as at developing an assisted diagnosis model mainly based on spatial relations, an information that currently used methods rarely use. A multiscale texture analysis is first proposed and applied to detect the presence of diseased tissue. A descriptor named Force Histogram Decomposition (FHD) is then introduced in order to extract the shapes and spatial organisation of regions within an object. Finally, histology images are described by the FHD measured on their different types of tissue and also on the stained biological objects inside every types of tissue. Preliminary studies showed that the FHD are able to accurately recognise objects on uniform backgrounds, including when spatial relations are supposed to hold no relevant information. Besides, the texture analysis method proved to be satisfactory in two different medical applications, namely histology images and fundus photographies. The performance of these methods are highlighted by a comparison with the usual approaches in their respectives fields. Finally, the complete method has been applied to assess the severity of cancers on two sets of histology images. The first one is given as part of the ANR project SPIRIT and presents metastatic mice livers. The other one comes from the challenge ICPR 2014 : Nuclear Atypia and contains human breast tissues. The analysis of spatial relations and shapes at two different scales achieves a correct recognition of metastatic cancer grades of 87.0 % and gives insight about the nuclear atypia grade. This proves the efficiency of the method as well as the relevance of measuring the spatial organisation in this particular type of images
Styles APA, Harvard, Vancouver, ISO, etc.
49

Kennel, Pol. « Caractérisation de texture par analyse en ondelettes complexes pour la segmentation d’image : applications en télédétection et en écologie forestière ». Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20215/document.

Texte intégral
Résumé :
L'analyse des images numériques, bien que largement étudiée, reste encore aujourd'hui un réel défi. Avec pour objectifs la description pertinente et la reconnaissance sémantique du contenu de celles-ci, de nombreuses applications requièrent une attention particulière quant à cette analyse. Pour répondre à ces besoins, l'analyse du contenu des images est réalisée de façon automatique grâce à des méthodes informatiques se rapprochant par exemple des mathématiques, des statistiques, de la physique. Une façon pertinente et reconnue de représenter les objets observés dans les images réside dans leur segmentation. Couplée à la classification, la segmentation permet une ségrégation sémantique de ces objets. Cependant, les méthodes existantes ne peuvent être considérées comme génériques, et bien que motivées par de nombreux domaines (militaire, médical, satellite, etc.), celles-ci sont continuellement réévaluées, adaptées et améliorées. Par exemple, les images satellites se démarquent dans le milieu de l'image de par leur spécificité d'acquisition, de par leur support ou de par le sujet d'observation (la Terre dans notre cas).Cette thèse à pour but d'explorer les méthodes de caractérisation et de segmentation supervisées exploitant la notion de texture. Les sols observés depuis l'espace, à des échelles et des résolutions différentes, peuvent être perçus comme texturés. Les cartes d'occupation des sols peuvent être obtenues par la segmentation d'images satellites, notamment en utilisant l'information texturale. Nous proposons le développement d'algorithmes de segmentation compétitifs caractérisant la texture par l'utilisation de représentations multi-échelles des images obtenues par décomposition en ondelettes et de classificateurs supervisés tels que les Support Vector Machines. Dans cette optique, cette thèse est principalement articulée autour de plusieurs projets de recherche nécessitant une étude des images à des échelles et des résolutions différentes, ces images étant elles-mêmes de nature variée (e.g. multi-spectrales, optiques, LiDAR). Nous dériverons, pour ces différents cas d'étude, certains aspects de la méthodologie développée
The analysis of digital images, albeit widely researched, continues to present a real challenge today. In the case of several applications which aim to produce an appropriate description and semantic recognition of image content, particular attention is required to be given to image analysis. In response to such requirements, image content analysis is carried out automatically with the help of computational methods that tend towards the domains of mathematics, statistics and physics. The use of image segmentation methods is a relevant and recognized way to represent objects observed in images. Coupled with classification, segmentation allows a semantic segregation of these objects. However, existing methods cannot be considered to be generic, and despite having been inspired by various domains (military, medical, satellite etc), they are continuously subject to reevaluation, adaptation or improvement. For example satellite images stand out in the image domain in terms of the specificity of their mode of acquisition, their format, or the object of observation (the Earth, in this case).The aim of the present thesis is to explore, by exploiting the notion of texture, methods of digital image characterization and supervised segmentation. Land, observed from space at different scales and resolutions, could be perceived as being textured. Land-use maps could be obtained through the segmentation of satellite images, in particular through the use of textural information. We propose to develop competitive algorithms of segmentation to characterize texture, using multi-scale representations of images obtained by wavelet decomposition and supervised classifiers such as Support Vector Machines.Given this context, the present thesis is principally articulated around various research projects which require the study of images at different scales and resolutions, and which are varying in nature (eg. multi-spectral, optic, LiDAR). Certain aspects of the methodology developed are applied to the different case studies undertaken
Styles APA, Harvard, Vancouver, ISO, etc.
50

Jiang, Zhifan. « Évaluation des mobilités et modélisation géométrique du système pelvien féminin par analyse d’images médicales ». Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10003/document.

Texte intégral
Résumé :
Le meilleur traitement des troubles des mobilités du système pelvien féminin est un enjeu de société concernant particulièrement les femmes âgées. C'est dans ce contexte que cette thèse porte sur le développement des méthodes d'analyse d'images médicales permettant d'évaluer les mobilités pelviennes et modéliser les géométries des organes pelviens. Pour ce faire, nous proposons des solutions reposant sur le recalage des modèles déformables sur des images, issues de la technique d'Imagerie par Résonance Magnétique (IRM). L'ensemble des résultats permet, à partir d'IRM, spécifiquement à chaque patiente, de détecter la forme et de quantifier le mouvement d'une part des organes et de reconstruire leurs surfaces. Ce travail facilite la simulation du comportement des organes pelviens par la méthode des éléments finis. L'ensemble des outils développés a pour objectif d'aider à comprendre le mécanisme des pathologies. Ceci permettra enfin de mieux prédire l'apparition de certaines d'entre elles, de préciser et personnaliser les procédures chirurgicales
The better treatment of female pelvic mobility disorders has a social impact affecting particularly aged women. It is in this context that this thesis focuses on the development of methods in medical image analysis, for the evaluation of pelvic mobility and the geometric modeling of the pelvic organs. For this purpose, we provide solutions based on the registration of deformable models on Magnetic Resonance Images (MRI). All the results are able to detect the shape and quantify the movement of a part of the organs and to reconstruct their surfaces from patient-specific MRI. This work facilitates the simulation of the behavior of the pelvic organs using finite element method. The objective of these developed tools is to help to better understand the mechanism of the pathologies. They will finally allow to better predict the presence of certain diseases, as well as make surgical procedures more accurate and personalized
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie