Thèses sur le sujet « Traitement de larges images »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Traitement de larges images.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Traitement de larges images ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

González, Obando Daniel Felipe. « From digital to computational pathology for biomarker discovery ». Electronic Thesis or Diss., Université Paris Cité, 2019. http://www.theses.fr/2019UNIP5185.

Texte intégral
Résumé :
L'histopathologie a pour objectif d'analyser des images de tissus biologiques pour évaluer l’état pathologique d'un organe et établir un diagnostic. L'apparition des scanners de lames a haute résolution a ouvert la voie a des nouvelles possibilités d'acquisition de très grandes images (whole slide imaging), de multiplexage de marquages, d'extraction exhaustive d'informations visuelles et d'annotations multiples a large échelle. Cette thèse propose un ensemble de méthodes algorithmiques visant a faciliter et optimiser ces différents aspects. Dans un premier temps, nous proposons une méthode de recalage multiculturelle d'images histologiques multi-marquées reposant sur les propriétés des B-splines pour modéliser, de fawn continue, une image discrète. Nous proposons ensuite de nouvelles approches d'analyse morphologique sur des polygones faiblement simples, généralisés par des graphes a segments droits. Elles reposent sur le formalisme des squelettes droits (une approximation de squelettes courbes définis par des segments droits), construits a l'aide de graphes de motocyclettes. Cette structure permet de réaliser des opérations de morphologie mathématiques sur des polygones avec une complexité réduite. La précision des opérations sur des polygones bruites est obtenue en raffinant la construction des squelettes droits par ajout adaptatif de sommets. Nous avons aussi propose un algorithme de détection de l'axe médian et montre qu'il est possible de reconstruire la forme d'origine avec une approximation arbitraire. Enfin, nous avons explore les squelettes droits pondérés qui permettent des opérations morphologiques directionnelles. Ces approches d'analyse morphologique offrent un support consistant pour améliorer la segmentation des objets grâce a l'information contextuelle et réaliser des études liées a l'analyse spatiale des interactions entre les différentes structures d’intérêt au sein du tissu. Tous les algorithmes proposes sont optimises pour le traitement d'images gigapixels et garantissent une reproductibilité des analyses, notamment grâce a la création du plugin Icytomine, interface entre Icy et Cytomine
Histopathology aims to analyze images of biological tissues to assess the pathologi¬cal condition of an organ and to provide a diagnosis. The advent of high-resolution slide scanners has opened the door to new possibilities for acquiring very large im¬ages (whole slide imaging), multiplexing stainings, exhaustive extraction of visual information and large scale annotations. This thesis proposes a set of algorith¬mic methods aimed at facilitating and optimizing these different aspects. First, we propose a multi-scale registration method of multi-labeled histological images based on the properties of B-splines to model, in a continuous way, a discrete image. We then propose new approaches to perform morphological analysis on weakly simple polygons generalized by straight-line graphs. They are based on the formalism of straight skeletons (an approximation of curved skeletons defined by straight segments), built with the help of motorcycle graphs. This structure makes it possible to perform mathematical morphological operations on polygons. The precision of operations on noisy polygons is obtained by refining the construction of straight skeletons. We also propose an algorithm for computing the medial axis from straight skeletons, showing it is possible to approximate the original polygonal shape. Finally, we explore weighted straight skeletons that allow directional mor¬phological operations. These morphological analysis approaches provide consistent support for improving the segmentation of objects through contextual information and performing studies related to the spatial analysis of interactions between dif¬ferent structures of interest within the tissue. All the proposed algorithms are optimized to handle gigapixel images while assuring analysis reproducibility, in particular thanks to the creation of the Icytomine plugin, an interface between Icy and Cytomine
Styles APA, Harvard, Vancouver, ISO, etc.
2

Paulin, Mattis. « De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM007/document.

Texte intégral
Résumé :
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature
This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets
Styles APA, Harvard, Vancouver, ISO, etc.
3

Villéger, Emmanuel. « Constance de largeur et désocclusion dans les images digitales ». Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00011229.

Texte intégral
Résumé :
L'école Gestaltiste s'intéresse à la vision, leur point de vue est que
nous regroupons des points lumineux et/ou des objets selon certaines
règles pour former des objets plus gros, des Gestalts.

La première partie de cette thèse est consacrée à la constance de
largeur. La Gestalt constance de largeur regroupe des points situés
entre deux bords qui restent parallèles. Nous cherchons donc dans les
images des courbes ``parallèles.'' Nous voulons faire une détection
a contrario, nous proposons donc une quantification du ``non
parallélisme'' de deux courbes par trois méthodes. La première méthode
utilise un modèle de génération de courbes régulières et nous
calculons une probabilité. La deuxième méthode est une méthode de
simulation de type Monte-Carlo pour estimer cette probabilité. Enfin
la troisième méthode correspond à un développement limité de la
première en faisant tendre un paramètre vers 0 sous certaines
contraintes. Ceci conduit à une équation aux dérivées partielles
(EDP). Parmi ces trois méthodes la méthode de type Monte-Carlo est
plus robuste et plus rapide.

L'EDP obtenue est très similaire à celles utilisées pour la
désocclusion d'images. C'est pourquoi dans la deuxième partie de cette
thèse nous nous intéressons au problème de la désocclusion. Nous
présentons les méthodes existantes puis une nouvelle méthode basée sur
un système de deux EDPs dont l'une est inspirée de celle de la
première partie. Nous introduisons la probabilité de l'orientation du
gradient de l'image. Nous prenons ainsi en compte l'incertitude sur
l'orientation calculée du gradient de l'image. Cette incertitude est
quantifiée en relation avec la norme du gradient.

Avec la quantification du non parallélisme de deux courbes, l'étape
suivante est la détection de la constance de largeur dans
les images. Il faut alors définir un seuil pour sélectionner les
bonnes réponses du détecteur et surtout parmi les réponses définir
des réponses ``maximales.'' Le système d'EDPs pour
la désocclusion dépend de beaucoup de paramètres, il faut trouver une
méthode de calibration des paramètres pour obtenir de bons résultats
adaptés à chaque image.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Soltani, Mariem. « Partitionnement des images hyperspectrales de grande dimension spatiale par propagation d'affinité ». Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S099/document.

Texte intégral
Résumé :
Les images hyperspectrales suscitent un intérêt croissant depuis une quinzaine d'années. Elles fournissent une information plus détaillée d'une scène et permettent une discrimination plus précise des objets que les images couleur RVB ou multi-spectrales. Bien que les potentialités de la technologie hyperspectrale apparaissent relativement grandes, l'analyse et l'exploitation de ces données restent une tâche difficile et présentent aujourd'hui un défi. Les travaux de cette thèse s'inscrivent dans le cadre de la réduction et de partitionnement des images hyperspectrales de grande dimension spatiale. L'approche proposée se compose de deux étapes : calcul d'attributs et classification des pixels. Une nouvelle approche d'extraction d'attributs à partir des matrices de tri-occurrences définies sur des voisinages cubiques est proposée en tenant compte de l'information spatiale et spectrale. Une étude comparative a été menée afin de tester le pouvoir discriminant de ces nouveaux attributs par rapport aux attributs classiques. Les attributs proposés montrent un large écart discriminant par rapport à ces derniers et par rapport aux signatures spectrales. Concernant la classification, nous nous intéressons ici au partitionnement des images par une approche de classification non supervisée et non paramétrique car elle présente plusieurs avantages: aucune connaissance a priori, partitionnement des images quel que soit le domaine applicatif, adaptabilité au contenu informationnel des images. Une étude comparative des principaux classifieurs semi-supervisés (connaissance du nombre de classes) et non supervisés (C-moyennes, FCM, ISODATA, AP) a montré la supériorité de la méthode de propagation d'affinité (AP). Mais malgré un meilleur taux de classification, cette méthode présente deux inconvénients majeurs: une surestimation du nombre de classes dans sa version non supervisée, et l'impossibilité de l'appliquer sur des images de grande taille (complexité de calcul quadratique). Nous avons proposé une approche qui apporte des solutions à ces deux problèmes. Elle consiste tout d'abord à réduire le nombre d'individus à classer avant l'application de l'AP en agrégeant les pixels à très forte similarité. Pour estimer le nombre de classes, la méthode AP utilise de manière implicite un paramètre de préférence p dont la valeur initiale correspond à la médiane des valeurs de la matrice de similarité. Cette valeur conduisant souvent à une sur-segmentation des images, nous avons introduit une étape permettant d'optimiser ce paramètre en maximisant un critère lié à la variance interclasse. L'approche proposée a été testée avec succès sur des images synthétiques, mono et multi-composantes. Elle a été également appliquée et comparée sur des images hyperspectrales de grande taille spatiale (1000 × 1000 pixels × 62 bandes) avec succès dans le cadre d'une application réelle pour la détection des plantes invasives
The interest in hyperspectral image data has been constantly increasing during the last years. Indeed, hyperspectral images provide more detailed information about the spectral properties of a scene and allow a more precise discrimination of objects than traditional color images or even multispectral images. High spatial and spectral resolutions of hyperspectral images enable to precisely characterize the information pixel content. Though the potentialities of hyperspectral technology appear to be relatively wide, the analysis and the treatment of these data remain complex. In fact, exploiting such large data sets presents a great challenge. In this thesis, we are mainly interested in the reduction and partitioning of hyperspectral images of high spatial dimension. The proposed approach consists essentially of two steps: features extraction and classification of pixels of an image. A new approach for features extraction based on spatial and spectral tri-occurrences matrices defined on cubic neighborhoods is proposed. A comparative study shows the discrimination power of these new features over conventional ones as well as spectral signatures. Concerning the classification step, we are mainly interested in this thesis to the unsupervised and non-parametric classification approach because it has several advantages: no a priori knowledge, image partitioning for any application domain, and adaptability to the image information content. A comparative study of the most well-known semi-supervised (knowledge of number of classes) and unsupervised non-parametric methods (K-means, FCM, ISODATA, AP) showed the superiority of affinity propagation (AP). Despite its high correct classification rate, affinity propagation has two major drawbacks. Firstly, the number of classes is over-estimated when the preference parameter p value is initialized as the median value of the similarity matrix. Secondly, the partitioning of large size hyperspectral images is hampered by its quadratic computational complexity. Therefore, its application to this data type remains impossible. To overcome these two drawbacks, we propose an approach which consists of reducing the number of pixels to be classified before the application of AP by automatically grouping data points with high similarity. We also introduce a step to optimize the preference parameter value by maximizing a criterion related to the interclass variance, in order to correctly estimate the number of classes. The proposed approach was successfully applied on synthetic images, mono-component and multi-component and showed a consistent discrimination of obtained classes. It was also successfully applied and compared on hyperspectral images of high spatial dimension (1000 × 1000 pixels × 62 bands) in the context of a real application for the detection of invasive and non-invasive vegetation species
Styles APA, Harvard, Vancouver, ISO, etc.
5

Assadzadeh, Djafar. « Traitement des images échographiques ». Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37595555x.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Assadzadeh, Djafar. « Traitement des images échographiques ». Paris 13, 1986. http://www.theses.fr/1986PA132013.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Fdida, Nicolas. « Développement d'un système de granulométrie par imagerie : application aux sprays larges et hétérogènes ». Rouen, 2008. http://www.theses.fr/2008ROUES050.

Texte intégral
Résumé :
L'optimisation de l'injection du carburant dans un moteur automobile sous la forme d'un spray consiste à augmenter la surface d'échange entre le carburant et l'air, essentiels à la combustion. La mesure de la granulométrie d'un spray permet de caractériser le comportement des sprays. Certains systèmes font l'hypothèse que les gouttes sont sphériques, ce qui n'est pas toujours le cas. Un sytème de mesure par imagerie a été développé dans cette étude, qui permet de s'affranchir de la connaissance de la forme de la goutte. Une procédure d'étalonnage du système a été mise en place à partir d'un modèle d'imagerie développé au laboratoire. Celui-ci tient compte des paramètres de l'image de la goutte pour calculer sa taille et estimer son défaut de mise au point. L'étalonnage permet de définir rigoureusement un volume de mesure du système d'imagerie. La quantification de la forme des gouttes est réalisée par la détermination de paramètres morphologiques sur les images de gouttes. Des modèles d'objets de forme proche de celles que l'on peut rencontrer lors du processus de rupture du liquide sont utilisés, de façon à associer des régions dans l'espace des paramètres de forme aux familles de formes particulières d'éléments liquides (ligaments, sphères, ovoïdes. . . ) La vitesse des gouttelettes est aussi mesurée à partir des images. La méthode utilisée est le suivi de particules, qui consiste à apparier deux champs de particules aux instants t et t+dt. Le système ainsi développé est appliqué à la caractérisation de sprays d'injecteurs essence haute et basse pression. Les mesures du système d'imagerie sont comparées avec celles obtenues par un granulomètre par diffraction et un Analyseur de Particules Phase Doppler. Une attention particulière a été portée sur les volumes de mesure de chaque technique pour comparer la granulométrie de chaque échantillon de gouttes. Un bon accord est obtenu entre les trois techniques. La caractérisation morphologique permet de compléter l'analyse granulométrique et ainsi d'étudier les processus de rupture rencontrés dans ces sprays
In many industrial applications, a given mass of a liquid is sprayed by an injector in a carrier gas in order to optimize the combustion by increasing the liquid-gas interface area. The characteristics of a spray are often given by the measurement of the drop size distribution. The underlying hypothesis is that all liquid elements are spherical. Of course, this case is not the rule and could only occur at end of the evolution of the spray. We develop in this study a shadow imaging system to measure the drop size independently from the drop shapes. A calibration procedure is described, based on an imaging model developed in our laboratory. This model takes into account image parameters of the drop to measure his size and to estimate his level of defocus. The goal of this calibration procedure is to define the measurement volume of the imaging system. A tool based on the characterization of the shape of the drops is proposed. Morphological criteria are defined to classify droplets, which belong to different kind of shape families such as spherical, elliptical and Cassini oval families. The introduction of the Cassini oval family shows a better description of liquid elements during the atomization process. This original approach underlines a segmentation of the shapes between ligaments, spherical droplets or ovoids. The velocity of the droplets is also investigated with this imaging system. For that purpose, a method of Particle Tracking Velocimetry (PTV) has been developed. It consists in matching pairs of droplets in a couple of images recorded at two successive times. The imaging system have been used to characterize gasoline sprays produced gasoline injectors of indirect and direct injection types. The drop size is compared with those given by two other drop sizing techniques : a phase Doppler anemometer and a laser diffraction granulometer. Attention was paid on the differences in the measurement volumes of the different techniques in order to compare the drop sizes given by each technique
Styles APA, Harvard, Vancouver, ISO, etc.
8

Vitter, Maxime. « Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES011/document.

Texte intégral
Résumé :
Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale
Over the last fifteen years, the emergence of remote sensing data at Very High Spatial Resolution (VHRS) and the democratization of Geographic Information Systems (GIS) have helped to meet the new and growing needs for spatial information. The development of new mapping methods offers an opportunity to understand and anticipate land cover change at large scales, still poorly known. In France, spatial databases about land cover and land use at large scale have become an essential part of current planning and monitoring of territories. However, the acquisition of this type of database is still a difficult need to satisfy because the demands concern tailor-made cartographic productions, adapted to the local problems of the territories. Faced with this growing demand, regular service providers of this type of data seek to optimize manufacturing processes with recent image-processing techniques. However, photo interpretation remains the favoured method of providers. Due to its great flexibility, it still meets the need for mapping at large scale, despite its high cost. Using fully automated production methods to substitute for photo interpretation is rarely considered. Nevertheless, recent developments in image segmentation can contribute to the optimization of photo-interpretation practice. This thesis presents a series of tools that participate in the development of digitalization assistance for the photo-interpretation exercise. The assistance results in the realization of a pre-cutting of the landscape from a segmentation carried out on a VHRS image. Tools development is carried out through three large-scale cartographic services, each with different production instructions, and commissioned by public entities. The contribution of these automation tools is analysed through a comparative analysis between two mapping procedures: manual photo interpretation versus digitally assisted segmentation. The productivity gains brought by segmentation are evaluated using quantitative and qualitative indices on different landscape configurations. To varying degrees, it appears that whatever type of landscape is mapped, the gains associated with assisted mapping are substantial. These gains are discussed both technically and thematically from a commercial perspective
Styles APA, Harvard, Vancouver, ISO, etc.
9

Atnafu, Besufekad Solomon. « Modélisation et traitement de requêtes images complexes ». Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0032/these.pdf.

Texte intégral
Résumé :
La recherche d'images par le contenu est d'une importance croissante dans de nombreux domaines d'application. Pour cette raison, il existe des numerus recherche dans les deux domaines : DBMS et reconnaissance de formes. Mais, la plupart des systèmes existants ont, en particulier, le défaut de n'offrir aucun cadre formel pour les requêtes dites hybrides. Or, disposer d'un cadre formel bien fondé est très important pour traiter efficacement de telles requêtes. Dans cette thèse, nous présenterons un modèle de représentation de données images à même de permettre de formuler des requêtes multicritères. Fondés sur ce modèle, on a développé une algèbre fondée sur le continue des images et présenté les propriétés des opérateurs. Des heuristiques d'optimisation de requêtes seront ensuite étudiées. Afin de valider expérimentalement la faisabilité et la pertinence des concepts et techniques introduits, nous avons implémenté un prototype de système de gestion d'images médicales appelé EMIMS
Querying images by their contents is of increasing importance in many application domains. For this reason, many researches are conducted in the two fields: DBMS and pattern recognition. But, the majority of the existing systems do not offer any formal framework to integrate the techniques in the two fields for effective multi-criteria queries on images. However, having a formal framework is necessary if one intends to treat such types of image queries effectively. In this thesis, we present image data repository models that allow to formulate multi-criteria queries. Then, based on this model, we introduced a similarity-based algebra that enables to formulate similarity-based queries and multi-criteria queries effectively and presented properties of the operators. We also presented techniques for similarity-based query optimization. We then developed a prototype called EMIMS (Extended Medical Image Management System) to show that our proposals in practical applications
Styles APA, Harvard, Vancouver, ISO, etc.
10

Duclos, Pierre. « Étude du parallélisme en traitement des images ». Nice, 1988. http://www.theses.fr/1988NICE4209.

Texte intégral
Résumé :
Validation du démonstrateur de calculateur vectoriel parallèle OPSILA pour les algorithmes de traitement des images. OPSILA a la particularité d'être dynamiquement reconfigurable suivant les deux modes de fonctionnement : parallélisme synchrone et parallélisme asynchrone à couplage fort
Styles APA, Harvard, Vancouver, ISO, etc.
11

Atnafu, Besufekad Solomon Brunie Lionel. « Modélisation et traitement de requêtes images complexes ». Villeurbanne : Doc'INSA, 2004. http://docinsa.insa-lyon.fr/these/pont.php?id=atnafu_besufekad.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Dumas, de la Roque Eric. « Traitement arthroscopique des larges ruptures de la coiffe des rotateurs de l'épaule : à propos de 26 cas ». Bordeaux 2, 1992. http://www.theses.fr/1992BOR2M149.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Hachicha, Walid. « Traitement, codage et évaluation de la qualité d’images stéréoscopiques ». Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132037.

Texte intégral
Résumé :
Les récents développements des technologies de l’imagerie 3D et en particulier la stéréoscopie ont ouvert de nouveaux horizons dans de nombreux domaines d’application tels que la TV 3D, le cinéma 3D, les jeux vidéo et la vidéoconférence. Ces avancées technologiques ont soulevé plusieurs défis aussi bien sur le plan théorique que pratique et en particulier dans le domaine du codage des données 3D. En effet, l’énorme quantité d’information issue des systèmes d’acquisition requiert des solutions efficaces pour la coder et la transmettre. L’objectif de cette thèse est le développement de méthodes pour optimiser les principales étapes de la chaine de traitement et transmission d’images stéréoscopiques. Nous nous limitons dans ce travail au rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques. La première partie de ce travail traite les problèmes d’évaluation et d’amélioration de la qualité d’images stéréoscopiques. Nous nous intéressons d’abord au rehaussement de contraste en s’inspirant des méthodes 2D et en intégrant quelques éléments liés à la perception visuelle. Nous proposons ainsi une première méthode de rehaussement de contraste local basée sur la carte de saillance visuelle. L’aspect qualité est aussi traité selon une approche basée sur les protocoles et méthodes conues pour le cas des images 2D et 3D. Cette méthode exploite les caractéristiques et propriétés connues du système visuel humain (SVH) telles que la non-linéarité, la sensibilité au contraste, la sélectivité directionnelle et fréquentielle ainsi que le seuil de discrimination binoculaire. Nous avons aussi d´eveloppé une méthode de prédiction de la qualité d’images stéréoscopiques sans référence. Cette dernière est basée sur des descripteurs 3D statistiques issus de la scène naturelle afin identifier les distorsions. Ces descripteurs 3D statistiques correspondent aux attributs extraits à partir de la paire stéréo naturelle et de la carte de disparité. L’extraction de ces descripteurs se fait au moyen de l’analyse en ondelettes des images stéréoscopiques. La deuxième partie de cette thèse traite les problèmes de compression d’images stéréoscopiques. Nous avons commencé par l’exploitation de la transformée en cosinus discret unidirectionnel et unidimensionnel pour encoder l’image résiduelle issue de la compensation de disparité. Ensuite, en se basant sur la transformée en ondelettes, nous avons étudié deux techniques pour optimiser le calcul de l’image résiduelle. Enfin, nous avons proposé des méthodes d’allocation de débit pour la compression des images stéréoscopiques. En général, le problème d’allocation de bits est résolu d’une manière empirique en cherchant le débit optimale qui minimise une certaine distorsion. Cependant cette stratégie est complexe. Pour cela, nous avons proposé des méthodes d’allocation de débits, rapides et efficaces appropriées pour le codage en boucle ouverte et en boucle fermée. Cette thèse ouvre des perspectives dans les trois thématiques abordées, à savoir le rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques
Recent developments in 3D stereoscopic technology have opened new horizons in many application fields such as 3DTV, 3D cinema, video games and videoconferencing and at the same time raised a number of challenges related to the processing and coding of 3D data. Today, stereoscopic imaging technology is becoming widely used in many fields. There are still some problems related to the physical limitations of image acquisition systems, e.g. transmission and storage requirements. The objective of this thesis is the development of methods for improving the main steps of stereoscopic imaging pipeline such as enhancement, coding and quality assessment. The first part of this work addresses quality issues including contrast enhancement and quality assessment of stereoscopic images. Three algorithms have been proposed. The first algorithm deals with the contrast enhancement aiming at promoting the local contrast guided by calculated/estimated object importance map in the visual scene. The second and the third algorithms aim at predicting the distortion severity of stereo images. In the second one, we have proposed a fullreference metric that requires the reference image and is based on some 2D and 3D findings such as amplitude non-linearity, contrast sensitivity, frequency and directional selectivity, and binocular just noticeable difference model. While in the third algorithm, we have proposed a no-reference metric which needs only the stereo pair to predict its quality. The latter is based on Natural Scene statistics to identify the distortion affecting the stereo image. The statistic 3D features consist in combining features extracted from the natural stereo pair and those from the estimate disparity map. To this end, a joint wavelet transform, inspired from the vector lifting concept is first employed. Then, the features are extracted from the obtained subbands. The second part of this dissertation addresses stereoscopic image compression issues. We started by investigating a one-dimensional directional discrete cosine transform to encode the disparity compensated residual image. Afterwards, and based on the wavelet transform, we investigated two techniques for optimizing the computation of the residual image. Finally, we present efficient bit allocation methods for stereo image coding purpose. Generally, the bit allocation problem is solved in an empirical manner by looking for the optimal rates leading to the minimum distortion value. Thanks to recently published work on approximations of the entropy and distortion functions, we proposed accurate and fast bit allocation schemes appropriate for the open-loop and closed-loop based stereo coding structures
Styles APA, Harvard, Vancouver, ISO, etc.
14

Abou, Chakra Sara. « La Boucle Locale Radio et la Démodulation directe de signaux larges bandes à 26GHz ». Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001988.

Texte intégral
Résumé :
La Boucle Locale Radio (BLR) ou Wireless Local Loop (WLL) est un système qui connecte les abonnés du réseau téléphonique commuté public (PSTN) grâce à une liaison radio. La BLR doit offrir les services suivants: la voix téléphonique, les données dans la bande du son et les services numériques. En France, les bandes de fréquence allouées à la BLR sont autour de 26 et 3,5 GHz. Les caractéristiques de la BLR à 26 GHz sont définies par la norme IEEE 802.16c. Dans le cadre de cette thèse, une boucle constituée de deux émetteurs/récepteurs fonctionnant dans la bande de 26 GHz a été étudiée. Le système était constitué dans un premier temps de composants disponibles commercialement. Il a été simulé avec le logiciel ADS de Agilent Technologies, et ensuite mis en œuvre au laboratoire RFM. Les récepteurs employés dans cette plate-forme étaient des récepteurs hétérodynes. Leur structure était donc complexe et la transmission altérée par les non-appariements en gain et en phase entre les voies I et Q des démodulateurs en quadrature. Afin de réduire sa complexité tout en gardant les mêmes performances du système, nous avons choisi de proposer une architecture homodyne du récepteur en introduisant le réflectomètre "cinq-port". Le réflectomètre cinq-port est un circuit passif linéaire ayant deux entrées et trois sorties. Il est constitué d'un circuit interféromètrique à cinq accès et de trois détecteurs de puissance. Un démodulateur cinq-port en technologie coaxiale a donc été introduit dans le système de transmission à 26 GHz. La démodulation étant validée avec ce circuit, un démodulateur cinq-port en technologie MHIC était réalisé. Afin de régénérer les signaux I et Q à partir des tensions de sortie du démodulateur cinq-port, un algorithme numérique particulier traite ces trois signaux. Ce traitement effectue simultanément la synchronisation trame et symbole ainsi que la synchronisation porteuse sur chaque trame de donnée transmise. Il inclut aussi une procédure adaptative d'auto-calibrage qui permet de régénérer les signaux I et Q tout en corrigeant tous les défauts de la chaîne de transmission contenant le cinq-port. Ce même traitement permet de corriger les non-appariements entre les deux voies d'un démodulateur classique en quadrature. Le système de transmission complet a été validé en réalisant la démodulation de signaux modulés en QPSK et en 16QAM avec des débits binaires atteignant 40 Mbit/s. Les diagrammes de constellation de phase obtenus étaient bien normalisés et les taux d'erreurs binaires étaient très proches que ceux définis par la norme de la BLR.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ainouz, Samia. « Analyse et traitement des images codées en polarisation ». Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00443685.

Texte intégral
Résumé :
Ce travail concerne les développements nécessaires à la mise en oeuvre efficace de systèmes imageurs polarimétriques et comporte plusieurs volets allant de la théorie amont à l'utilisation d'algorithmes de traitement d'images spécifiques. Les principaux objectifs et les développements réalisés se rapportent à: - la représentation algébrique des formalismes de polarisation en utilisant les quaternions : toute matrice de Mueller non dépolarisante peut être mise sous forme d'un quaternion complexe et l'action d'un système optique sur une onde monochromatique s'écrit comme le produit géométrique du quaternion correspondant à la matrice de Mueller par le multivecteur représentant le vecteur de Stokes. Cette utilisation de l'algèbre géométrique permet de définir formellement la notion de distance, de similitude et d'appartenance à une classe. - l'optimisation des polarimètres imageurs et le calcul de l'erreur sur les mesures : la démarche, basée sur l'utilisation du produit de Kronecker, prend en compte de façon conjointe les erreurs sytématiques et le bruit d'image et leur minimisation est obtenue dès l'étape de conception. Plusieurs fonctions de mérites sont introduites pour permettre la définition des caractéristiques du polarimètre optimal. - l'estimation et le filtrage du bruit des images polarimétriques : deux méthodes sont envisagées i) une nouvelle variante de la méthode du « scatter plot » combinée avec une vectorisation de l'image par un parcours de type Piano-Hilbert, ii) la méthode du masquage de données qui repose sur l'utilisation de la différence entre deux approximations de l'opérateur Laplacien. Les performances et les biais des deux estimateurs choisis sont étudiés statistiquement par la méthode du « Bootstrap ». - la classification et la prévisualisation couleur des images codées en polarisation : on propose une représentation colorée des images codées en polarisation, comme une aide à leur interprétation en fonction de leur contenu physique, qui utilise la décomposition polaire pour le cas de l'imagerie de Mueller et repose sur deux mappages entre la sphère de Poincaré et un espace de couleur paramétrique dans le cas de l'imagerie de Stokes. Le processus de segmentation est basé sur la famille des algorithmes des K-moyennes. Cette démarche est illustrée sur des images de Stokes et de Mueller de tissus biologiques.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Ben, Arab Taher. « Contribution des familles exponentielles en traitement des images ». Phd thesis, Université du Littoral Côte d'Opale, 2014. http://tel.archives-ouvertes.fr/tel-01019983.

Texte intégral
Résumé :
Cette thèse est consacrée à l'évaluation des familles exponentielles pour les problèmes de la modélisation des bruits et de la segmentation des images couleurs. Dans un premier temps, nous avons développé une nouvelle caractérisation des familles exponentielles naturelles infiniment divisible basée sur la fonction trace de la matrice de variance covariance associée. Au niveau application, cette nouvelle caractérisation a permis de détecter la nature de la loi d'un bruit additif associé à un signal où à une image couleur. Dans un deuxième temps, nous avons proposé un nouveau modèle statistique paramétrique mulltivarié basé sur la loi de Riesz. La loi de ce nouveau modèle est appelée loi de la diagonale modifiée de Riesz. Ensuite, nous avons généralisé ce modèle au cas de mélange fini de lois. Enfin, nous avons introduit un algorithme de segmentation statistique d'image ouleur, à travers l'intégration de la méthode des centres mobiles (K-means) au niveau de l'initialisation pour une meilleure définition des classes de l'image et l'algorithme EM pour l'estimation des différents paramètres de chaque classe qui suit la loi de la diagonale modifiée de la loi de Riesz.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Daniel, Tomasz. « Dispositif pour le traitement numérique des images magnétooptiques ». Paris 11, 1985. http://www.theses.fr/1985PA112256.

Texte intégral
Résumé :
Dans cette thèse nous présentons un dispositif électronique qui enlève le contraste d'origine non-magnétique des images magnéto-optiques. Simultanément, le bruit est réduit de telle façon que la visibilité limite lors des observations des domaines magnétiques est repoussée d'au moins un ordre de grandeur. Le signal vidéo, échantillonné à la fréquence de 10 MHz et codé sur 8 bits, est stocké dans une des trois 512x512x8 mémoires d'image. Un processeur arithmétique câblé calcule la différence et la somme entre les images, point par point, en raison de 10 Moctets/s. L'appareil est commandé par un microprocesseur 6809. Le mode principal d'opération est de comparer l'image d'un échantillon avec les domaines et l'image du même échantillon en état saturé. La différence est ensuite annulée pour obtenir une réduction de bruit nécessaire. En conclusion, des améliorations des images prises par l’effet Kerr longitudinal sont présentées
An electronic system is described which effectively substracts non magnetic contrast of magnetooptical images. At the same time noise is reduced to such a degree that the contrast visibility limit in domain observation is expanded by at least an order of magnitude. The incoming video signal, sampled at 10 Hz and coded at 8 bits is stored in one of the three 512x512x8 image memories. High speed arithmetic processor ads and substracts images, pixel by pixel, at 10 bytes/s. The device is controlled by a 6809 microprocessor. The m in mode of operation is to compare the image of a sample with magnetic domains with the image of the sample in saturated state. The difference is then cumulated to achieve necessary noise reduction. Improvements of longitudinal Kerr effect images are shown
Styles APA, Harvard, Vancouver, ISO, etc.
18

Bes, Marie-Thérèse. « Traitement automatique d'images scintigraphiques : application aux images cardiaques ». Toulouse 3, 1987. http://www.theses.fr/1987TOU30054.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
19

Contassot-Vivier, Sylvain. « Calculs paralleles pour le traitement des images satellites ». Lyon, École normale supérieure (sciences), 1998. http://www.theses.fr/1998ENSL0087.

Texte intégral
Résumé :
L'etude realisee dans cette these met en relation deux domaines scientifiques a priori distincts, que sont la geologie etl'informatique. En effet, le contexte de ce travail est de concevoir une chaine complete de traitements paralleles sur les images satellites allant de la reconstruction tridimensionnelle a la visualisation des terrains ainsi reconstitues. Ce travail a fait l'objet d'une cooperation etroite entre personnes issues de formations aussi differentes que la geologie et l'informatique. Nous proposons d'une part, la parallelisation d'un algorithme de reconstruction tridimensionnelle de relief a partir d'un couple d'images satellite. Et d'autre part, un algorithme parallele de visualisation de terrains avec texture. Ces travaux font donc appel a plusieurs domaines de l'informatique tels que le parallelisme, la vision stereoscopique et la synthese d'images. Une etude methodologique plus generale sur les algorithmes de transformation geometrique des images est egalement presentee. Au niveau sequentiel, nous proposons pour chacun des algorithmes abordes et lorsque cela est pertinent, differentes optimisations originales permettant des ameliorations en termes de complexite et donc de temps de calculs, ainsi que des choix d'outils calculatoires pouvant ameliorer la qualite des resultats, point tres sensible dans un domaine comme la vision stereoscopique. Dans le cadre du parallelisme, nous nous focalisons sur les strategies de communications et d'equilibrage des charges pouvant etre mises en uvre pour tirer le meilleur parti des machines paralleles. En comparant nos problemes avec ceux deja traites dans la litterature, nous sommes arrives a la conclusion qu'un equilibrage des charges dirige par les donnees etait preferable a toute autre technique dans notre cas. De plus, que l'on se place dans la partie vision ou synthese, l'equilibrage des charges peut etre aborde exactement de la meme maniere. On peut donc appliquer la meme strategie sur ces differents algorithmes. Enfin, une etude theorique de la complexite de l'algorithme parallele de vision stereoscopique nous permet de deduire les points cles influencant les performances et donc d'estimer a priori le nombre de processeurs necessaires pour obtenir les meilleures performances absolues pour un ensemble connu de donnees. Des experimentations menees sur differentes machines paralleles, volvox, cray t3d ou cray t3e nous permettent de verifier le bon comportement de nos algorithmes paralleles et de confirmer leur efficacite.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Horé, Alain. « Traitement des images bidimensionnelles à l'aide des FPGAs / ». Thèse, Chicoutimi : Université du Québec à Chicoutimi, 2005. http://theses.uqac.ca.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Bes, Marie-Thérèse. « Traitement automatique d'images scintigraphiques application aux images cardiaques / ». Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602964k.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Bartovsky, Jan. « Hardware architectures for morphological filters with large structuring elements ». Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1060/document.

Texte intégral
Résumé :
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution
This thesis is focused on implementation of fundamental morphological filters in the dedicated hardware. The main objective of this thesis is to provide a programmable and efficient implementation of basic morphological operators using efficient dataflow algorithms considering the entire application point of view. In the first part, we study existing algorithms for fundamental morphological operators and their implementation on different computational platforms. We are especially interested in algorithms using the queue memory because their implementation provides the sequential data access and minimal latency, the properties very beneficial for the dedicated hardware. Then we propose another queue-based arbitrary-oriented opening algorithm that allows for direct granulometric measures. Performance benchmarks of these two algorithms are discussed, too. The second part presents hardware implementation of the efficient algorithms by means of stream processing units. We begin with 1-D dilation unit, then thanks to the separability of dilation we build up 2-D rectangular and polygonal dilation units. The processing unit for arbitrary-oriented opening and pattern spectrum is described as well. We also introduce a method of parallel computation using a few copies of processing units in parallel, thereby speeding up the computation. All proposed processing units are experimentally assessed in hardware by means of FPGA prototypes, and the performance and FPGA occupation results are discussed. In the third part, the proposed units are employed in two diverse applications illustrating thus their capability of addressing performance-demanding, low-power embedded applications. The main contributions of this thesis are: 1) new algorithm for arbitrary oriented opening and pattern spectrum, 2) programmable hardware implementation of fundamental morphological operators with large structuring elements and arbitrary orientation, 3) performance increase obtained through multi-level parallelism. Results suggest that the previously unachievable, real-time performance of these traditionally costly operators can be attained even for long concatenations and high-resolution images
Styles APA, Harvard, Vancouver, ISO, etc.
23

Perrotton, Xavier. « Détection automatique d'objets dans les images numériques : application aux images aériennes ». Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0025.

Texte intégral
Résumé :
Cette thèse a été effectuée dans le cadre d'une thèse CIFRE entre EADS Innovation Works et Télécom ParisTech. Elle est dédiée à la détection d'objets dans les images. Les travaux se sont concentrés sur les méthodes à base d'Adaboost en raison de son efficacité théorique et pratique. Un nouveau descripteur a été introduit pour mieux discriminer les objets, ce descripteur a été mis en oeuvre dans une première chaîne algorithmique permettant de détecter des avions dans des images réelles à partir d'un apprentissage sur des images simulées. Une première amélioration permet d'explorer l'espace des descripteurs et de rendre ainsi la modélisation de la cible plus robuste. L'idée consiste à construire une cascade à partir d'une première famille de descripteurs et de remplacer cette famille par une nouvelle famille de l'espace de recherche lorsque le dernier descripteur sélectionné n'apporte plus d'information discriminante. L'algorithme permet ainsi d'utiliser la complémentarité de différents descripteurs et de mieux décrire l'objet à détecter. La deuxième amélioration consiste à permettre au modèle d'apprendre toutes les vues d'un objet 3D, et de le reconnaître à partir d'une vue unique quelconque. Une structure hiérarchique implicite décroissante permet de modéliser les différentes vues. Ces deux approches complémentaires ont finalement été fusionnées pour obtenir une chaîne algorithmique complète. En appliquant ce modèle à différentes tâches de détection, nous avons vérifié d'une part l'apport du modèle multi-vues pour apprendre des apparences et des poses multiples et d'autre part l'amélioration apportée par la combinaison de familles de descripteurs
This thesis was conducted as part of a CIFRE contract between EADS Innovation Works and Telecom ParisTech. The presented work aims at defining techniques for the detection and localisation of objects in digital images. This work focused on methods based on AdaBoost because of its theoretical and practical effectiveness. A new descriptor robust to background and target texture variations is introduced. A first object detection framework based on this descriptor is proposed and applied. Observed results prove that a vision system can be trained on adapted simulated data and yet be efficient on real images. A first improvement allows the proposed cascade to explore the space of descriptors and thus to improve the modeling of the target. The idea developed here consists in the beginning to build a cascade with one type of descriptors and then introduce new kinds of descriptors when the current descriptor family does not bring enough differentiating information anymore. We present a novel boosting based learning approach which automatically learns a multi-view detector without using intra-class sub-categorization based on prior knowledge. An impicit hierarchical structure enables both a precise modelling and an efficient sharing of descriptors between views. These two complementary approaches are finnally merged to obtain a complete algorithm chain. With the application of this model to different tasks of detection, we verified, on one hand, the efficiency of multi-view model to learn different appearances and poses, and on the other hand, the performances improvement made by the combination of families of descriptors
Styles APA, Harvard, Vancouver, ISO, etc.
24

Tschumperlé, David. « PDE's based regularization of multivalued images and applications ». Nice, 2002. http://www.theses.fr/2002NICE5779.

Texte intégral
Résumé :
Nous nous intéressons aux approches par EDP pour la régularisation d'images multivaluées, et leurs applications à une large classe de problèmes d'intérêts. L'étude et la comparaison des méthodes existantes nous permet à la fois de proposer un cadre mathématique commun mieux adapté aux interprétations géométriques locales de ces EDP, mais aussi de concevoir des schémas numériques efficaces pour leur mise en oeuvre. Nous développons de cette fa\c{c}on une nouvelle approche de régularisation multivaluée vérifiant certaines propriétés géométriques locales importantes, qui peut être utilisée dans de nombreuses applications différentes. Nous abordons ensuite le problème lié à la régularisation de données multivaluées contraintes. Un formalisme variationel est proposé afin de traiter dans un cadre unifié, des données de direction comme les champs de vecteurs unitaires, de matrices de rotation, de tenseurs de diffusion etc. Les solutions apportées sont analysées et utilisées avec succès pour résoudre de nombreux problèmes, notamment la régularisation et l'interpolation d'images couleurs, la visualisation de flots, la régularisation de mouvements rigides estimés à partir de séquences vidéos, et l'aide à la reconstruction de réseaux cohérents de fibres dans la matière blanche du cerveau, \`a partir de la régularisation d'images d'IRM de diffusion
We are interested in PDE-based approaches for vector-valued image regularization, and its applications for a wide class of interesting image processing problems. The comparative study of existing methods allows us to propose a common mathematical framework, better adapted to understand the underlying diffusion geometry of the regularization processes, as well as design corresponding numerical schemes. Thus we develop a new multivalued image regularization approach that verifies important geometric properties. It can be used in a large range of regularization-related applications. We also tackle the problem of constrained regularization and propose a specific variational formalism unifying in a common framework, the equations acting on direction features~: unit vectors, rotation matrices, diffusion tensors, etc. Proposed solutions are analyzed and used with success to solve applications of interest, such as color image regularization and interpolation, flow visualization, regularization of rigid motions estimated from video sequences, and aided reconstruction of coherent fibers network models in the white matter of the~brain, using DT-MRI imaging
Styles APA, Harvard, Vancouver, ISO, etc.
25

Puteaux, Pauline. « Analyse et traitement des images dans le domaine chiffré ». Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS119.

Texte intégral
Résumé :
Durant cette dernière décennie, la sécurité des données multimédia, telles que les images, les vidéos et les données 3D, est devenue un problème majeur incontournable. Avec le développement d’Internet, de plus en plus d’images sont transmises sur les réseaux et stockées sur le cloud. Ces données visuelles sont généralement à caractère personnel ou peuvent avoir une valeur marchande. Ainsi, des outils informatiques permettant d’assurer leur sécurité ont été développés.Le but du chiffrement est de garantir la confidentialité visuelle des images en rendant aléatoire leur contenu. Par ailleurs, pendant la transmission ou l'archivage des images chiffrées, il est souvent nécessaire de les analyser ou de les traiter sans connaître leur contenu original, ni la clé secrète utilisée pendant la phase de chiffrement. Ce sujet de thèse propose de se pencher sur cette problématique. En effet, de nombreuses applications existent telles que le partage d’images secrètes, l'insertion de données cachées dans des images chiffrées, l’indexation et la recherche d’images dans des bases de données chiffrées, la recompression d'images crypto-compressées, ou encore la correction d’images chiffrées bruitées.Dans un premier axe de recherche, nous présentons tout d’abord une nouvelle méthode d’insertion de données cachées haute capacité dans le domaine chiffré. Dans la plupart des approches de l’état-de-l’art, les valeurs des bits de poids faible sont remplacées pour réaliser l’insertion d’un message secret. Nous prenons ces approches à contre-pied en proposant de prédire les bits de poids fort. Ainsi, une charge utile nettement supérieure est obtenue, tout en conservant une haute qualité de l’image reconstruite. Par la suite, nous montrons qu’il est en effet possible de traiter récursivement tous les plans binaires d’une image pour réaliser l’insertion de données cachées dans le domaine chiffré.Dans un second axe de recherche, nous expliquons comment exploiter des mesures statistiques (entropie de Shannon et réseau neuronal convolutif) dans des blocs de pixels de petite taille (i.e. avec peu d’échantillons) pour différencier un bloc en clair d’un bloc chiffré dans une image. Nous utilisons alors cette analyse dans une application à la correction d’images chiffrées bruitées.Enfin, le troisième axe de recherche développé dans ces travaux de thèse porte sur la recompression d’images crypto-compressées. Dans le domaine clair, les images JPEG peuvent être recompressées avant leur transmission sur des réseaux bas débit, mais l’opération est bien plus complexe dans le domaine chiffré. Nous proposons alors une méthode de recompression des images JPEG crypto-compressées directement dans le domaine chiffré et sans connaître la clé secrète, en s’appuyant sur un décalage binaire des coefficients réorganisés
During the last decade, the security of multimedia data, such as images, videos and 3D data, has become a major issue. With the development of the Internet, more and more images are transmitted over networks and stored in the cloud. This visual data is usually personal or may have a market value. Thus, computer tools have been developed to ensure their security.The purpose of encryption is to guarantee the visual confidentiality of images by making their content random. Moreover, during the transmission or archiving of encrypted images, it is often necessary to analyse or process them without knowing their original content or the secret key used during the encryption phase. This PhD thesis proposes to address this issue. Indeed, many applications exist such as secret images sharing, data hiding in encrypted images, images indexing and retrieval in encrypted databases, recompression of crypto-compressed images, or correction of noisy encrypted images.In a first line of research, we present a new method of high-capacity data hiding in encrypted images. In most state-of-the-art approaches, the values of the least significant bits are replaced to achieve the embedding of a secret message. We take the opposing view of these approaches by proposing to predict the most significant bits. Thus, a significantly higher payload is obtained, while maintaining a high quality of the reconstructed image. Subsequently, we showed that it was possible to recursively process all bit planes of an image to achieve data hiding in the encrypted domain.In a second line of research, we explain how to exploit statistical measures (Shannon entropy and convolutional neural network) in small pixel blocks (i.e. with few samples) to discriminate a clear pixel block from an encrypted pixel block in an image. We then use this analysis in an application to correct noisy encrypted images.Finally, the third line of research developed in this thesis concerns the recompression of crypto-compressed images. In the clear domain, JPEG images can be recompressed before transmission over low-speed networks, but the operation is much more complex in the encrypted domain. We then proposed a method for recompressing crypto-compressed JPEG images directly in the encrypted domain and without knowing the secret key, using a bit shift of the reorganized coefficients
Styles APA, Harvard, Vancouver, ISO, etc.
26

Aziz, Fatima. « Approche géométrique couleur pour le traitement des images catadioptriques ». Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0080/document.

Texte intégral
Résumé :
Ce manuscrit étudie les images omnidirectionnelles catadioptriques couleur en tant que variétés Riemanniennes. Cette représentation géométrique ouvre des pistes intéressantes pour résoudre les problèmes liés aux distorsions introduites par le système catadioptrique dans le cadre de la perception couleur des systèmes autonomes. Notre travail démarre avec un état de l’art sur la vision omnidirectionnelle, les différents dispositifs et modèles de projection géométriques. Ensuite, nous présentons les notions de base de la géométrie Riemannienne et son utilisation en traitement d’images. Ceci nous amène à introduire les opérateurs différentiels sur les variétés Riemanniennes, qui nous seront utiles dans cette étude. Nous développons alors une méthode de construction d’un tenseur métrique hybride adapté aux images catadioptriques couleur. Ce tenseur a la double caractéristique, de dépendre de la position géométrique des points dans l’image, et de leurs coordonnées photométriques également. L’exploitation du tenseur métrique proposé pour différents traitements des images catadioptriques, est une partie importante dans cette thèse. En effet, on constate que la fonction Gaussienne est au cœur de plusieurs filtres et opérateurs pour diverses applications comme le débruitage, ou bien l’extraction des caractéristiques bas niveau à partir de la représentation dans l’espace-échelle Gaussien. On construit ainsi un nouveau noyau Gaussien dépendant du tenseur métrique Riemannien. Il présente l’avantage d’être applicable directement sur le plan image catadioptrique, également, variable dans l’espace et dépendant de l’information image locale. Dans la dernière partie de cette thèse, nous discutons des applications robotiques de la métrique hybride, en particulier, la détection de l’espace libre navigable pour un robot mobile, et nous développons une méthode de planification de trajectoires optimal
This manuscript investigates omnidirectional catadioptric color images as Riemannian manifolds. This geometric representation offers insights into the resolution of problems related to the distortions introduced by the catadioptric system in the context of the color perception of autonomous systems. The report starts with an overview of the omnidirectional vision, the different used systems, and the geometric projection models. Then, we present the basic notions and tools of Riemannian geometry and its use in the image processing domain. This leads us to introduce some useful differential operators on Riemannian manifolds. We develop a method of constructing a hybrid metric tensor adapted to color catadioptric images. This tensor has the dual characteristic of depending on the geometric position of the image points and their photometric coordinates as well.In this work, we mostly deal with the exploitation of the previously constructed hybrid metric tensor in the catadioptric image processing. Indeed, it is recognized that the Gaussian function is at the core of several filters and operators for various applications, such as noise reduction, or the extraction of low-level characteristics from the Gaussian space- scale representation. We thus build a new Gaussian kernel dependent on the Riemannian metric tensor. It has the advantage of being applicable directly on the catadioptric image plane, also, variable in space and depending on the local image information. As a final part in this thesis, we discuss some possible robotic applications of the hybrid metric tensor. We propose to define the free space and distance transforms in the omni- image, then to extract geodesic medial axis. The latter is a relevant topological representation for autonomous navigation, that we use to define an optimal trajectory planning method
Styles APA, Harvard, Vancouver, ISO, etc.
27

Harp, Josselin. « Contribution à la segmentation des images : applications à l'estimation des plans texturés dans des images planes et omnidirectionnelles ». Amiens, 2003. http://www.theses.fr/2003AMIE0313.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Huet-Guillemot, Florence. « Fusion d'images segmentees et interpretees. Application aux images aeriennes ». Cergy-Pontoise, 1999. http://biblioweb.u-cergy.fr/theses/99CERG0057.pdf.

Texte intégral
Résumé :
Puisqu'il n'existe aucun operateur capable a lui seul de resoudre la question de la segmentation, une forte tendance s'est developpee en faveur de la cooperation et de la fusion de methodes. Nous avons choisi d'explorer cette voie dans ce memoire. Dans un premier temps, nous proposons une cooperation contour/region originale qui garantit une tres bonne localisation des contours, sans sur-detection en presence de bruit ou de texture. La caracterisation de telles zones au travers de cartes de texture/bruit nous a egalement permis de mettre en uvre un procede de fusion de plusieurs segmentations, adaptant le choix de l'operateur de segmentation a la zone consideree. Dans un second temps, nous avons voulu nous appuyer sur des informations plus riches, d'un niveau (semantique) superieur, et avons mis en uvre une cooperation segmentation/interpretation. Nous avons developpe, a cet effet, un systeme d'interpretation flou fournissant, pour chaque region, un degre d'appartenance a chaque classe d'objets. Nous montrons que l'evaluation de la segmentation trouve une solution avec l'interpretation. En effet, le niveau d'interpretation d'une region est representatif de la performance locale de l'operateur de segmentation pour extraire l'objet. Nous avons donc selectionne plusieurs segmentations, de l'approche contour et de l'approche region, et tente de beneficier du meilleur de chacune. Un systeme de fusion d'images, segmentees par l'ensemble des detecteurs choisis et interpretees par notre classifieur flou, est developpe. Plusieurs operateurs de fusion dans le cadre flou sont proposes pour profiter de la complementarite et de la redondance des diverses segmentations.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Turcotte, Maryse. « Méthode basée sur la texture pour l'étiquetage des images ». Sherbrooke : Université de Sherbrooke, 2000.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Piedpremier, Julien. « Les grandes images ». Paris 8, 2005. http://www.theses.fr/2005PA082545.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Najman, Laurent. « Morphologie mathématique, systèmes dynamiques et applications au traitement des images ». Habilitation à diriger des recherches, Université de Marne la Vallée, 2006. http://tel.archives-ouvertes.fr/tel-00715406.

Texte intégral
Résumé :
Ce mémoire résume une quinzaine d'années de recherche dans le monde industriel et universitaire. Il est divisé en trois parties, traitant respectivement de la théorie de la morphologie mathématique, des systèmes dynamiques et enfin des applications au traitement des images. En morphologie mathématique, nos travaux ont porté principalement sur le filtrage et la segmentation d'images. En ce qui concerne le filtrage, nous avons proposé un algorithme quasi-linéaire pour calculer l'arbre des composantes, une des structures d'organisation naturelles des ensembles de niveaux d'une image. En segmentation, nous nous sommes principalement intéressé à la ligne de partage des eaux. Nous en avons proposé une définition continue. En nous servant du formalisme récemment introduit par Gilles Bertrand, nous avons comparé les propriétés de plusieurs définitions discrètes et nous avons proposé un algorithme quasi-linéaire permettant de calculer la ligne de partage des eaux topologique. Notre algorithme repose en partie sur celui de l'arbre des composantes. Enfin, nous avons proposé des schémas hiérarchiques pour utiliser la ligne de partage des eaux, et en particulier, nous avons proposé de valuer les contours produits par un critère de saillance donnant l'importance du contour dans la hiérarchie. Ces études nous ont conduit à proposer des classes de graphes adaptés pour la fusion de région, mettant en particulier en évidence l'équivalence existant entre une de ces classes de graphes et la classe des graphes pour lesquels toute ligne de partage des eaux binaire est mince. En ce qui concerne les systèmes dynamiques, nous avons utilisé les outils issus du cadre de l'analyse multivoque et de la théorie de la viabilité pour proposer un algorithme (dit des "Montagnes Russes") qui permet de converger vers le minimum global d'une fonction dont on connaît l'infimum. L'association du cadre algébrique des treillis complets, de l'algèbre et de la théorie des inclusions différentielles nous a permis de donner des propriétés algébriques et de continuité d'applications agissant sur des ensembles fermés, comme l'ensemble atteignable ou le noyau de viabilité. Nous avons utilisé le cadre des équations mutationnelles, permettant de dériver des tubes de déformations de formes dans des espaces métriques, pour prouver de manière rigoureuse et sans hypothèse de régularité sur la forme, l'intuition selon laquelle la dilatation transforme la forme dans la direction des normales à celle-ci en chacun de ses points. Nous avons adapté au cadre des équations mutationnelles le théorème d'Euler, qui permet d'approcher une solution à une équation mutationnelle par une s'equence de points dans un espace métrique. Enfin, nous avons proposé une approche générique de simulation, fondée sur les systèmes de particules, qui a prouvé son efficacité par sa mise en œuvre en milieu industriel, en particulier, pour la simulation de foules, pour la synthèse d'images, ou encore pour la simulation du déploiement d'airbags. Nous pensons que de bonnes études théoriques aident à réaliser des applications de qualité. Inversement, de bons problèmes théoriques peuvent trouver une source dans de bons problèmes applicatifs. On trouvera dans ce mémoire le résumé d'un certain nombre de travaux dont l'intérêt industriel a été prouvé par des brevets ou des logiciels. Citons par exemple un outil de segmentation 4D (3D+temps) en imagerie cardiaque utilisé par des médecins dans le cadre de leur pratique. Nous avons travaillé pendant plusieurs années dans le domaine du traitement d'images de documents. Nous avons proposé un outil basé sur la morphologie mathématique permettant d'estimer l'angle d'inclinaison d'un document scanné. Plus particulièrement, nous avons étudié des problèmes liés à l'indexation et à la reconnaissance de dessins techniques.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Nezan, Jean François. « Prototypage rapide d'applications de traitement des images sur systèmes embarqués ». Habilitation à diriger des recherches, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00564516.

Texte intégral
Résumé :
les travaux de recherche de Jean-François Nezan s'inscrivent dans le cadre général des méthodes et outils d'aide à la conception de systèmes embarqués. Plus particulièrement, les travaux présentés visent les systèmes électroniques constitués de plusieurs processeurs (MPSoC) et dédiés aux applications de compression/décompression vidéo. L'approche choisie se situe dans le cadre AAA (Adéquation Algorithme Architecture) qui utilise des modèles de descriptions haut-niveau des algorithmes et des architectures parallèles pour automatiser les processus de placement/ordonnancement et pour générer un code optimisé. La présentation montrera les apports à cette problématique issus des travaux encadrés par Jean-François Nezan, précisera également la manière dont ces travaux distincts s'intègrent dans un processus de développement cohérent et évolutif, et enfin donnera les perspectives attendues dans les années à venir.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Verdant, Arnaud. « Architectures adaptatives de traitement des images dans le plan focal ». Paris 11, 2008. http://www.theses.fr/2008PA112361.

Texte intégral
Résumé :
Les capteurs d'images font partie intégrante de notre quotidien. Ces dispositifs sont le plus souvent implémentés au sein de produits nomades pour lesquels subsistent de fortes contraintes de consommation d'énergie. Les images acquises par de tels capteurs contiennent en effet de nombreuses redondances spatiales mais également temporelles lorsque l'on considère un flux vidéo. De nombreuses données sont alors inutilement traitées, transmises et mémorisées, induisant de ce fait un défaut d'autonomie pour de tels systèmes. Les travaux de thèses effectués ont eu pour objectif de répondre à cette contrainte de consommation, en définissant de nouvelles approches architecturales permettant un traitement des images en bordure et au sein de la matrice de pixels, afin d'adapter les ressources du capteur en fonction de l'activité de la scène observée. Ainsi, de nouveaux concepts d'acquisition et de traitement relatifs à la détection de mouvement ont été étudiés. L'architecture de traitement, dérivée des algorithmes développés, a par la suite été développée, tout en proposant des solutions permettant de garantir l'intégrité des données analogiques. Une méthode de modélisation originale a enfin été mise en œuvre afin de valider les concepts proposés, du point de vue de la cohérence des traitements, de leur robustesse et de la consommation induite. Enfin, un démonstrateur a été réalisé en vue de valider l'implémentation silicium de l'architecture conçue. Les gains en consommation estimés sont ainsi de 30 à 700 en comparaison de capteurs de l'état de l'art
Image sensors are an integral part of our daily lives. These deviees are most commonly implemented in mobile products for which remain strong constraints of energy consumption. Indeed, the images captured by such sensors contain many spatial and time redundancies when considering a video stream. Many data are unnecessarily processed, transmitted and stored, thereby inducing a lack of autonomy in such systems. The thesis work carried out aimed to address this power constraint by defining new architectural approaches to image processing within the matrix of pixels, to adapt sensor resources based on the activity of the observed scene. Thus, new concepts of acquisition and processing related to motion detection have been studied. The processing architecture, derived from subsequently developed algorithms, while offering solutions to ensure the integrity of the analog data. Original modelling methodology was finally implemented in order to validate the proposed concepts, to ensure the processing consistency, robustness and induced consumption. Finally, a demonstrator was designed to validate the silicon implementation of the architecture. The power consumption gains are estimated from 30 to 700 compared to the image sensor sensors state of the art
Styles APA, Harvard, Vancouver, ISO, etc.
34

Lozano, Vincent. « Contribution de l'analyse d'image couleur au traitement des images textile ». Saint-Etienne, 1998. http://www.theses.fr/1998STET4003.

Texte intégral
Résumé :
Le chapitre 1 introduit les antagonismes théoriques qui séparent les approches vision humaine et vision artificielle, approches dont on recense généralement les complémentarités et les apports réciproques. Le chapitre 2 présente de manière originale et via de nombreuses illustrations, le cheminement théorique et expérimental qui conduit à définir et à modéliser la sensation de couleur. L'objectif de ce chapitre est d'aborder la colorimétrie tant d'un point de vue numérique que technologique. Le chapitre 3 est une étude théorique et expérimentale autour des algorithmes de quantification couleur, montrant quelles sont les limitations de l'approche purement statistique fondée sur l'étude du nuage couleur d'une image. Le chapitre 4 présente la structure pyramidale gaussienne, et sa construction sur machine parallèle ; une structure pyramidale appelée pyramide fractionnaire est introduite, présentant la particularité d'augmenter le nombre de niveaux de la pyramide gaussienne, généralisant les travaux de Burt (1981), à un cadre d'étude théorique plus large, et étendu à la couleur. Le chapitre 5 est consacré à la segmentation à partir d'étude d'un outil d'analyse et de structuration des données baptisé graphe d'adjacence pyramidal, basé sur le principe de la multirésolution, et se fondant sur une analyse « haut-niveau » d'une présegmentation d'image. Il exploite sous forme de graphes d'adjacence, toutes les relations de voisinage sous-jacentes à une image de motifs. Le chapitre 6 présente, en guise de bilan et de perspectives, une réflexion sur les différents axes possibles pour aborder le problème de la segmentation d'image, notamment sur le rôle de l'expérimentation, de l'interactivité, et de la visualisation des données en traitement d'image couleur
Styles APA, Harvard, Vancouver, ISO, etc.
35

Ropert, Michaël. « Filtres médians et médians généralisés : application au traitement des images ». Rennes 1, 1995. http://www.theses.fr/1995REN10163.

Texte intégral
Résumé :
Dans cette thèse nous proposons un concept simple de la notion de filtrage. Le filtre est alors vu comme une membrane qui laisse passer certains détails, en retenant d'autres. La notion d'ordre permet de définir des filtres perméables à des composantes de détail. Le filtre retiendra donc certains détails en fonction de leur taille ou de leur géométrie et laissera passer les autres. Une des plus importantes familles de ce type de filtres non-linéaires est basée sur la statistique d'ordre. Le filtre médian est sans doute le plus connu et le plus utilisé d'entre eux pour le traitement des images. Cette thèse regroupe alors un ensemble de filtres au sein d'une classification qui englobe une grande partie des opérateurs basés sur la notion d'ordre entre les données. Nous abordons différents types d'analyse et synthèse pour ce genre de filtres. Ce document traite plus particulièrement des filtres de rang pondérés. Nous présentons le résultat des approches fréquentielles, paramétriques et structurelles successivement abordées pour l'analyse de ces filtres. Cette analyse nous a permis de proposer une nouvelle représentation paramétrique des filtres de rang pondérés et un algorithme de conversion du modèle paramétrique à un schéma de réalisation du filtre. Nous développons également quelques méthodes de synthèse, en les replaçant dans le cadre général de l'optimisation sous contraintes. Les applications présentées traitent de la réduction de bruit sur texture, et de l'interpolation spatiale et temporelle de séquences d'images
Styles APA, Harvard, Vancouver, ISO, etc.
36

GRATIN, CHRISTOPHE. « De la representation des images au traitement morpholmogique d'images tridimensionnelles ». Paris, ENMP, 1993. http://www.theses.fr/1993ENMP0383.

Texte intégral
Résumé :
Representer les images est la premiere tache a laquelle est confronte celui qui desire creer un systeme logiciel de traitement d'images. La programmation objet y apporte une solution elegante. A partir de classes d'images tres abstraites mettant en exergue des caracteres fondamentaux tels que la digitalisation, la dimension ou la couleur, on a pu creer par differenciation et fusion une hierarchie dont les elements les plus specialises correspondent aux images reellement manipulees. Outre la grande coherence de l'ensemble qui confere au systeme une bonne extensibilite, une telle structure permet de definir bon nombre d'actions a un niveau eleve de la hierarchie; ces actions sont alors heritees par toutes les classes descendantes, ce qui reduit d'autant l'effort de programmation. La deuxieme tache consiste a choisir les algorithmes pour realiser le mieux et le plus vite possible les transformations d'images. L'utilisation d'algorithmes ordonnes bases sur les files d'attente, le tri des pixels et les files d'attentes hierarchiques, conduit a une acceleration considerable de certaines operations comme la ligne de partage des eaux, le calcul de la distance euclidienne ou encore la dilatation numerique par un element structurant quelconque, par comparaison avec une implantation parallele iterative. Ces techniques ont ete abondamment utilisees pour la realisation d'un logiciel de traitement d'images tridimensionnelles. Ce systeme, couple a un interpreteur lisp, met a la disposition de l'utilisateur un grand nombre de transformations morphologiques, 2d et 3d, en reseau carre ou hexagonal (2d), cubique ou cubique a faces centrees (3d). Il a permis de mettre en uvre avec succes les outils morphologiques de filtrage et de segmentation dans plusieurs applications: separation de bulles d'air dans une mousse de polyurethane, segmentation d'une image rmn d'un cerveau humain, segmentation du ventricule gauche dans une sequence temporelle de gammagraphies
Styles APA, Harvard, Vancouver, ISO, etc.
37

Goudail, François. « Localisation d'objets dans des images fortement bruitées : une approche probabiliste paramétrique ». Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30013.

Texte intégral
Résumé :
Cette these est consacree a l'amelioration des techniques de localisation et de poursuite d'objets de forme connue sur des sequences d'images. Notre but est d'obtenir des algorithmes qui soient plus efficaces que les filtres lineaires classiques tout en restant assez simples pour pouvoir fonctionner en temps reel. Pour cela, nous considerons des modeles parametriques d'images differents du modele classique de bruit gaussien, additif, stationnaire et ergodique. Nous determinons les processeurs de localisation optimaux au sens du maximum de vraisemblance (mv) associes a ces modeles. Nous montrons tout d'abord que le correlateur a transformee conjointe non-lineaire (nl-jtc), tres utilise en traitement optique de l'information, est superieur au filtres lineaires en presence d'un bruit non-ergodique. Nous introduisons ensuite un modele d'image parametrique (modele sir) qui permet de prendre en compte a la fois un bruit de fond non-recouvrant et une cible de luminance aleatoire. Nous determinons les processeurs de localisation optimaux dans le cadre de ce modele. Ils se revelent plus efficaces que les processeurs classiques sur des images realistes. Enfin, nous determinons un processeur utilisant de maniere optimale la continuite entre les trames successives d'une sequence d'images pour attenuer l'influence du bruit de fond. Tous les processeurs obtenus consistent en des pre-traitements de la scene, suivis de correlations et de post-traitements. Les correlations, qui sont les operations les plus lourdes en calcul, peuvent etre realisees par des correlateurs numeriques ou optiques
Styles APA, Harvard, Vancouver, ISO, etc.
38

CHAMBON, ERIC. « Traitement de larges pertes de substances a la face dorsale de la main par lambeaux en ilot preleves a l'avant-bras ». Lille 2, 1990. http://www.theses.fr/1990LIL2M186.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Chastel, Serge. « Contribution de la théorie des hypergraphes au traitement des images numériques ». Saint-Etienne, 2001. http://www.theses.fr/2001STET4008.

Texte intégral
Résumé :
Les récents développements en traitement d'image ont fait apparaître l'intérêt des formalisations discrètes de l'image numérique et de l'étude de celles-ci au moyen de la combinatoire. Dans ce mémoire, nous nous sommes intéressés à des modélisations de l'image numérique par le biais de la théorie des hypergraphes. Notre contribution est essentiellement axée sur la détermination de propriétés mathématiques que peuvent posséder de telles structures et d'analyser leur adéquation avec des problématiques de l'image. Dans un premier temps, nous étudions la modélisation par hypergraphes de voisinages des images numériques. Un outil de visualisation de telles structures est présenté. Reprenant les précédents travaux déjà menés sur le sujet, nous étudions le problème de la recherche exhaustive de cliques (sous-graphes complets maximaux au sens de l'inclusion) dans les graphes, et proposons un algorithme de description de cet ensemble. Nous établissons ensuite une définition formelle des zones de contours de régions dans l'image et un algorithme quadratique de détermination de celles-ci. Nous nous intéressons ensuite à une autre modélisation par hypergraphe qui s'affranchit de la contrainte spatiale des hypergraphes de voisinages d'image : les hypergraphes de polyominos d'image. Ceux-ci consistent en un recouvrement de l'image par des rectangles maximaux définis au sens d'un critère radiométrique. La correction d'une telle modélisation est illustrée par une définition formelle de la notion de bruit dans l'image numérique et est complétée par un algorithme de détection de celui-ci, par une série d'expérimentations et par une étude comparative avec d'autres algorithmes de détection. En définitive, ce travail porte sur la présentation et l'évaluation de formalisations mathématiques combinatoires de l'image numérique par hypergraphes et a pour but d'étudier si des propriétés caractéristiques de ces formalisations sont représentatives de problématiques de l'image numérique
Recent developments in image processing have shown the promises of discrete formalizations of the digital picture and their study from the point of view of combinatorics. In this document we focus on the modeling of the digital picture by the means of hypergraphs. . . . [etc. ]
Styles APA, Harvard, Vancouver, ISO, etc.
40

Gousseau, Yann. « Distribution de formes dans les images naturelles ». Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090081.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
41

Thiebaut, Carole. « Caractérisation multidimensionnelle des images astronomiques : application aux images TAROT ». Toulouse, INPT, 2003. http://www.theses.fr/2003INPT022H.

Texte intégral
Résumé :
Le volume de données des observatoires automatiques est conséquent et nécessite des traitements robustes et rapides. L'objectif de cette thèse est de développer des algorithmes de traitement pour les images astronomiques, et en particulier pour celles du télescope TAROT. Nous avons dans un premier temps intégré les étapes d'extraction de sources. Cette étude nous a permis de construire les catalogues des objets de l'image. Nous avons ensuite mis au point un classifieur automatique pour l'identification de la nature des sources extraites. Le second volet de cette étude est la construction des signaux relatifs à l'évolution de la luminosité des sources astronomiques en fonction du temps. Nous avons développé des méthodes d'analyse de séries temporelles astronomiques échantillonnées irrégulièrement. Ces analyses nous ont permis d'extraire les caractéristiques principales de ces signaux, en vue d'une identification automatique de ces étoiles variables.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Kouassi, Rémi Kessé. « Etude des transformations linéaires pour la représentation des images multicomposantes : application a la quantification et à la segmentation des images couleur ». Dijon, 2000. http://www.theses.fr/2000DIJOS054.

Texte intégral
Résumé :
Cette thèse traite de l'utilisation des transformations linéaires pour la représentation, la quantification et la segmentation des images couleurs. La principale transformation linéaire de cette étude est fondée sur le développement de Karhunen-Loeve dont l'analyse et l'approximation nous ont permis de mettre en évidence des propriétés intéressantes pour l'analyse des images couleur. Une de ces propriétés est la formulation mathématique du critère de stationnarité colorimétrique. Le critère de stationnarité colorimétrique nous permet non seulement d'estimer la qualité de l'approximation de l'espace de Karhunen-Loeve par une représentation en cosinus discrète ou en sinus discrète mais aussi de construire un algorithme de quantification des images couleur. Cet algorithme de quantification prend en compte la distribution spatiale des couleurs dans le système de représentation. Il tient également compte de la fréquence d'occurrence des couleurs de l'image. Nous exposons également une méthode de segmentation au sens contours des images couleur. Nous proposons l'utilisation du gradient multi-spectral (GMS) lorsque les images sont représentées dans un espace corrélé comme le système RVB. Dans le cas contraire d'un système de représentation non corrélé, comme l'espace de Karhunen-Loeve et ses espaces approximés (DCT, DST), nous proposons une technique de fusion des contours marginaux obtenus à partir des deux premiers plans des espaces considérés.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Pérez, Patrick. « Modèles et algorithmes pour l'analyse probabiliste des images ». [S.l.] : [s.n.], 2003. http://www.irisa.fr/centredoc/publis/HDR/2003/irisapublication.2005-08-03.7343433931.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
44

Li-Thiao-Té, Sébastien. « Traitement du signal et images LC/MS pour la recherche de biomarqueurs ». Phd thesis, Cachan, Ecole normale supérieure, 2009. https://theses.hal.science/tel-00466961/fr/.

Texte intégral
Résumé :
La spectrométrie de masse LC/MS est une technique de chimie analytique très prometteuse pour la recherche de biomarqueurs protéiques. Cette thèse aborde la correction de certaines distortions : l'alignement des images LC/MS et la normalisation des intensités. Nous étudions ensuite un détecteur de signaux a contrario et calculons la limite de détection
Liquid chromatography mass spectrometry is a promising technique in analytical chemistry for the discovery of protein biomarkers. This thesis deals with correcting distortions such as LC/MS image alignment and intensity standardization. We then apply a contrario detection, and study the limit of detection of the proposed algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
45

Moghrani, Madjid. « Segmentation coopérative et adaptative d’images multicomposantes : application aux images CASI ». Rennes 1, 2007. http://www.theses.fr/2007REN1S156.

Texte intégral
Résumé :
Les travaux de cette thèse s'inscrivent dans le cadre des approches coopératives de segmentation d’images. Deux systèmes adaptatifs ont été mis en œuvre: l'un parallèle, l'autre séquentiel. Le système parallèle met en concurrence les méthodes de segmentation par classification. Le système séquentiel exécute ces mêmes méthodes suivant un ordonnancement établi. L'extraction des attributs pour segmenter les différentes régions est effectuée de manière adaptative en fonction de la nature uniforme (faiblement texturée) ou texturées des régions. Les deux systèmes sont composés de trois modules principaux. Le premier module permet de détecter la nature des régions de l'image (uniformes et texturées) afin d'adapter le type de traitement a posteriori. Le deuxième module est dédié à la segmentation des régions détectées en fonction de leur nature. Les résultats de segmentation sont évalués et validés à des niveaux différents du traitement. Le troisième module fusionne les résultats intermédiaires obtenus sur les deux types de région détectés. Les deux systèmes sont testés et comparés sur des images synthétiques et réelles, monocomposantes et multicomposantes de télédétection aérienne
This thesis focuses on cooperative approaches in image segmentation. Two adaptive systems were implemented; the first is parallel and second is sequential. The parallel system is based on competing methods of segmentation by classification. The sequential system runs these methods according to a predefined schedule. The extraction of features for segmentation is performed according of the region’s nature (uniform or textured). Both systems are composed of three main modules. The first module aims to detect the region’s nature of the image (uniforms or textured) in order to adapt further processings. The second module is dedicated to the segmentation of detected regions according to their nature. The segmentation results are assessed and validated at different levels of the segmentation process. The third module merges intermediate results obtained on the two types of areas. Both systems are tested and compared on synthetic and real mono- and multi-component images issued from aerial remote sensing
Styles APA, Harvard, Vancouver, ISO, etc.
46

Dong, Lixin. « Extraction automatique des contours cardiaques sur des images échocardiographiques ». Paris 12, 1990. http://www.theses.fr/1990PA120040.

Texte intégral
Résumé :
L'echocardiographie est une technique non-invasive frequemment utilisee en cardiologie, et elle porte un grand interet pour evaluer des fonctions cardiaques, plus particulierement, celles du ventricule gauche. Nous avons mis au point un systeme de traitement d'images autour d'un environnement informatique tres souple et convivial, plus certaines fonctions de traitements specifiques pour extraire des contours myocardiques a partir des images echocardiographiques. Compte-tenu de la particularite et la difficulte de notre probleme, nos efforts portent sur l'introduction des informations complementaires dans la detection des contours. Deux algorithmes ont ete proposes, un pour tracer les contours du septum interventriculaire, de l'endocarde et de l'epicarde en image mode m, un autre pour extraire le contour endocardique a partir d'echocardiographie bidimensionnelle. Pour l'analyse automatique de l'image mode m, la representation specifique (1d+t) du mode m a ete exploree par un filtrage adaptatif et une contrainte physiologique a egalement ete introduite pendant la detection. Quant a l'echocardiographie bidimensionnelle, la forme geometrique de l'objet a ete tenue en compte par un modele specifique du contour et la technique de la programmation dynamique optimise la detection globale du contour. L'amelioration importante de la qualite de la detection des contours myocardiques montre que cette introduction des informations complementaires est indispensable pour extraire correctement des contours myocardiques en echocardiographie
Styles APA, Harvard, Vancouver, ISO, etc.
47

De, Hauwer Christophe. « Evaluation du comportement de cellules in vitro par traitement des images ». Doctoral thesis, Universite Libre de Bruxelles, 1998. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212010.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Brun-Lecouteulx, Annie. « Essai d'application de l'estimateur de Stein au traitement des images scintigraphiques ». Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37612234x.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
49

Tupin, Florence. « Champs de Markov sur graphes pour le traitement des images radar / ». Paris : École nationale supérieure des télécommunications, 2007. http://catalogue.bnf.fr/ark:/12148/cb41098170v.

Texte intégral
Résumé :
Habilitation à diriger des recherches--Traitement du signal et des images--Paris--ENST, 2007.
La p. de titre et la couv. portent en plus : "Département Traitement du signal et des images. Groupe Traitement et interprétation des images" Bibliogr. p. 103-117.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Jaouen, Vincent. « Traitement des images multicomposantes par EDP : application à l'imagerie TEP dynamique ». Thesis, Tours, 2016. http://www.theses.fr/2016TOUR3303/document.

Texte intégral
Résumé :
Cette thèse présente plusieurs contributions méthodologiques au traitement des images multicomposantes. Nous présentons notre travail dans le contexte applicatif difficile de l’imagerie de tomographie d’émission de positons dynamique (TEPd), une modalité d’imagerie fonctionnelle produisant des images multicomposantes fortement dégradées. Le caractère vectoriel du signal offre des propriétés de redondance et de complémentarité de l’information le long des différentes composantes permettant d’en améliorer le traitement. Notre première contribution exploite cet avantage pour la segmentation robuste de volumes d’intérêt au moyen de modèles déformables. Nous proposons un champ de forces extérieures guidant les modèles déformables vers les contours vectoriels des régions à délimiter. Notre seconde contribution porte sur la restauration de telles images pour faciliter leur traitement ultérieur. Nous proposons une nouvelle méthode de restauration par équations aux dérivées partielles permettant d’augmenter le rapport signal sur bruit d’images dégradées et d’en renforcer la netteté. Appliqués à l’imagerie TEPd, nous montrons l’apport de nos contributions pour un problème ouvert des neurosciences, la quantification non invasive d’un radiotraceur de la neuroinflammation
This thesis presents several methodological contributions to the processing of vector-valued images, with dynamic positron emission tomography imaging (dPET) as its target application. dPET imaging is a functional imaging modality that produces highly degraded images composed of subsequent temporal acquisitions. Vector-valued images often present some level of redundancy or complementarity of information along the channels, allowing the enhancement of processing results. Our first contribution exploits such properties for performing robust segmentation of target volumes with deformable models.We propose a new external force field to guide deformable models toward the vector edges of regions of interest. Our second contribution deals with the restoration of such images to further facilitate their analysis. We propose a new partial differential equation-based approach that enhances the signal to noise ratio of degraded images while sharpening their edges. Applied to dPET imaging, we show to what extent our methodological contributions can help to solve an open problem in neuroscience : noninvasive quantification of neuroinflammation
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie