Dissertations / Theses on the topic 'Traitements des images'

To see the other types of publications on this topic, follow the link: Traitements des images.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Traitements des images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Comes, Serge. "Les traitements perceptifs d'images numérisées." Université catholique de Louvain, 1993. http://edoc.bib.ucl.ac.be:81/ETD-db/collection/available/BelnUcetd-04232003-110112/.

Full text
Abstract:
L'objectif de la thèse est d'étudier l'application de propriétés perceptives au traitement d'images numérisées. Ce projet confronte deux mondes fort éloignés: l'étude du système visuel humain (HVS) qui se rattache à la neurophysiologie et à la psychophysique et le traitement d'images qui fait partie du domaine de l'informatique et des télécommunications.
APA, Harvard, Vancouver, ISO, and other styles
2

Amat, Jean-Louis. "Automatisation de traitements d'images : application au calcul de paramètres physiques en télédétection." Nice, 1987. http://www.theses.fr/1987NICE4154.

Full text
Abstract:
Le problème de la représentation et de l'utilisation des traitements d'images sous forme de séquences d’opérations est présenté. Le cadre d'application présenté est le calcul de paramètres physiques en climatologie, obtenues à partir d'images infra-rouge de satellites. La gestion des images est assurée par une base de données relationnelle d'images de télédétection. L’environnement logiciel construit autour de la base autorise la manipulation des images avec transformation automatique de la géométrie et de la radiométrie. De manière générale, l'environnement de programmation autorise l'accès aux informations désirées de manière transparente à l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
3

Leducq, Paul. "Traitements temps-fréquence pour l'analyse de scènes complexes dans les images SAR polarimétriques." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00133586.

Full text
Abstract:
Ces travaux concernent l'utilisation de méthodes temps-fréquences pour l'étude des images SAR polarimétriques au travers de deux applications.
La réponse des cibles mobiles est étudiée. Sa forme particulière conduit à une méthode de détection et refocalisation basée sur la transformée de Fourier fractionnaire. La problématique est étendue au cas des cibles possédant de plus une réflectivité dépendant des paramètres d'illumination (angle et fréquence). Une approche basée sur une modélisation de la cible et sur l'algorithme de Matching-Pursuit est présentée.
La détection des bâtiments dans les images SAR de zones urbaines en bande L est abordée dans le cadre temps-fréquence. Les notions complémentaires de stationnarité et de cohérence sont exploitées pour produire une classification temps-fréquence, permettant d'identifier les environnements naturels et différents types de cibles artificielles. Des applications à la cartographie et à la caractérisation de bâtiments sont proposées.
APA, Harvard, Vancouver, ISO, and other styles
4

JAROSZ, HERVE. "Adaptation dynamique des operateurs de detection en traitements d'image : application aux images interferometriques." Paris 6, 1989. http://www.theses.fr/1989PA066256.

Full text
Abstract:
Une des premieres etapes de la vision par ordinateur consiste a extraire de l'image, des primitives de bas niveau. Les operateurs de la geometrie differentielle (gradient, laplacien, hessien) peuvent etre utilises pour determiner ces primitives. Ils permettent d'evaluer localement des caracteristiques topographiques de l'image qui sont directement liees a des mesures perceptives comme le contraste ou la luminance. Pour calculer ces operateurs nous avons choisi de reconstituer localement, en chaque point de l'image, la surface des luminances par une forme polynomiale. Notre these est divisee en quatre parties. Dans la premiere, nous exposons les principes du calcul de ces operateurs. La deuxieme partie est consacree a l'etude des problemes d'echelle. Nous y montrons notamment qu'il est necessaire d'adapter la taille des operateurs, c'est-a-dire la taille du voisinage pour lequel ils sont definis, a la nature des formes que l'on cherche a percevoir. Un algorithme d'adaptation dynamique de la taille des operateurs laplacien est presente. Il nous a permis de construire l'image des laplaciens. Dans cette image, chaque pixel a ete remplace par la reponse du meilleur operateur laplacien trouve. Dans le troisieme chapitre, nous avons aborde les problemes lies a l'implementation de ces operateurs. Leur mise en uvre a ete realisee sur deux architectures, l'une classique, l'autre specialisee en traitement d'image. Les problemes de propagation des bruits de calculs dans une implementation en cascade ont ete traites. Enfin, dans le dernier chapitre, une application au traitement des images interferometriques est proposee. Ces images presentent des caracteristiques pseudo-periodiques et sont generalement tres bruitees. Pour detecter les contours des franges contenues dans ces images nous avons utiliser l'algorithme de segmentation adaptatif du chapitre ii. A partir de l'image des laplaciens, les lignes de c
APA, Harvard, Vancouver, ISO, and other styles
5

Xia, Deshen. "Contribution à la mise au point d'un logiciel de traitements d'images de télédetection sur micro-ordinateur." Rouen, 1987. http://www.theses.fr/1987ROUEL045.

Full text
Abstract:
Les images de la terre fournies par les satellites permettent au géographe depuis peu de temps, d'étendre considérablement le domaine de ses observations. Mais la saisie, le traitement et la visualisation de ces images nécessitent un support informatique solide et approprié. En collaboration avec une équipe de chercheurs l'informaticien a apporté ici son concours à la résolution de problèmes essentiels posés par la nature même de l'information à traiter; celle-ci comportant une dizaine de million d'unités élémentaires, appelées pixels. Il a d'abord été nécessaire d'explorer de manière approfondie les capacités d'un système (le système micro-informatique). Ce dernier, développé autour d'un IBMPC-AT, s'est révélé parfaitement efficace, grâce à ses cartes spécialisées, son système souple d'exploitation, au MS-DOS et à l'utilisation combinée de deux langages de programmation (le C et l'assembleur). Une fois lues, les informations fournies par la bande ont pu être imprimées : la Canon PJ-1080 A pour les images en couleur ; l'Epson LQ-1500 et la Laser-writer MO 156Z pour les images en noir et blanc ; tandis que d'autres programmes ont permis leur visualisation. La Laser-writer, en particulier, grâce à son microprocesseur incorporé, a donné des résultats très satisfaisants. Au vu de l'impression des résultats, il a été effectué différents traitements de l'image permettant d'en améliorer l'aspect et d'en affiner les contrastes : l'étude des histogrammes de fréquence, de classification, de nuages, de points, de stretching et de délignage. Des images de la Terre issues de satellites un système micro-informatique adapté et des images imprimées permettent une bonne interprétation
Satellite images of the Earth recently enable geographers to considerably extend the field of their observations. But the numerisation, the processing and the visualisation of these images require a solid and appropriate computer system. In collaboration withe agroup of researchers, the programmer have helped in solving the essential problems posed by the nature of the data to be processed. These data comprise about ten million elementary units called pixels. It was initially nacessary to explore deeply the capacities of e system (the micro-comuter system), for this processing. The latter being developped alongside an IBM PC-AT revealed to be very effective owing to its speccialised cards, its flexible operating system, the md-dos and to the combined usage of two programming languages (the C and the assembler). The initial satellite data were available in a magnetic tape whose reading required a programme extablishing the link between the tape controller and the ibm, important problemq were encountered : inadaptation of one of the IBM Bios function, insufficient tape reading speed using the language C and the delicate link between the latter and the assembler. Once read, the data obtained from the tape were printed the Canon PJ-A080 a for the colour images ; the Epson LQ-1500 and the laser writer MO 156Z for the black and white images while other programmes enabled their visualisation. The laser writer, particularly ets in-built micro-processor gave very satisfactory results. To enable the printing of the results, the image was made to undergo different processing in order to improve ets appearance and to refine ets contracts : by the analyses of frequency histogram, classification, stretching and line-removing. It's possible to make e good interpretation of an erea with Earth satellite image, an appropriate micro-computer system and somme printed images
APA, Harvard, Vancouver, ISO, and other styles
6

Delahaies, Agnès. "Contributions à des approches informationnelles en imagerie : traitements conjoints et résonance stochastique." Phd thesis, Université d'Angers, 2011. http://tel.archives-ouvertes.fr/tel-00665908.

Full text
Abstract:
Les systèmes d'imagerie connaissent un développement soutenu et deviennent de plus en plus largement répandus. Les systèmes d'imagerie mettent en oeuvre des principes physiques variés dont l'élaboration continue de progresser (imagerie par résonance magnétique, thermographie, imagerie multi et hyperspectrale, etc). Au delà de leur constitution physique variée, les images produites ont en commun de constituer un support d'information. Dans ce contexte, nous proposons une contribution à des approches informationnelles en imagerie. Celle-ci est guidée par une transposition du paradigme informationnel de Shannon en imagerie développée selon deux axes. Nous présentons une approche de traitements conjoints où la finalité informationnelle de l'acquisition des images est une donnée connue a priori et utilisée pour optimiser certains réglages de la chaîne d'imagerie. Différentes problématiques de traitements conjoints de l'information sont présentées (échelle d'observation - estimation conjointe, compression - estimation conjointe, et acquisition - compression conjointe). Nous étendons ensuite le champ des études en résonance stochastique en explorant de nouveaux couplages signal-bruit se prêtant à des effets de bruit utile, en imagerie cohérente et en imagerie par résonance magnétique. La résonance stochastique est également considérée, de par sa signification informationnelle spécifique (le bruit utile à l'information), comme un phénomène permettant de tester et d'approfondir l'appréciation des propriétés et potentialités de mesures entropiques ou informationnelles appliquées en imagerie. Elle est en particulier utilisée comme un banc de test pour confronter ces mesures informationnelles à des mesures psychovisuelles sur des images.
APA, Harvard, Vancouver, ISO, and other styles
7

Delahaies, Agnès. "Contributions à des approches informationnelles en imagerie : traitements conjoints et résonance stochastique." Phd thesis, Angers, 2011. https://theses.hal.science/tel-00665908.

Full text
Abstract:
Les systèmes d'imagerie connaissent un développement soutenu et deviennent de plus en plus largement répandus. Les systèmes d'imagerie mettent en oeuvre des principes physiques variés dont l'élaboration continue de progresser (imagerie par résonance magnétique, thermographie, imagerie multi et hyperspectrale, etc). Au delà de leur constitution physique variée, les images produites ont en commun de constituer un support d'information. Dans ce contexte, nous proposons une contribution à des approches informationnelles en imagerie. Celle-ci est guidée par une transposition du paradigme informationnel de Shannon en imagerie développée selon deux axes. Nous présentons une approche de traitements conjoints où la finalité informationnelle de l'acquisition des images est une donnée connue a priori et utilisée pour optimiser certains réglages de la chaîne d'imagerie. Différentes problématiques de traitements conjoints de l'information sont présentées (échelle d'observation - estimation conjointe, compression - estimation conjointe, et acquisition - compression conjointe). Nous étendons ensuite le champ des études en résonance stochastique en explorant de nouveaux couplages signal-bruit se prêtant à des effets de bruit utile, en imagerie cohérente et en imagerie par résonance magnétique. La résonance stochastique est également considérée, de par sa signification informationnelle spécifique (le bruit utile à l'information), comme un phénomène permettant de tester et d'approfondir l'appréciation des propriétés et potentialités de mesures entropiques ou informationnelles appliquées en imagerie. Elle est en particulier utilisée comme un banc de test pour confronter ces mesures informationnelles à des mesures psychovisuelles sur des images
Imaging systems are continuously improving and their uses are spreading more and more widely. Imaging systems are based on various physical principles, with a sophistication which keeps enhancing (magnetic resonance imaging, thermography, multi and hyperspectral imaging). Beyond this heterogeneity of constitution, the resulting images share the property of being a support of information. In this context, we propose a contribution to informational approaches in imaging. This is especially guided by a transposition of Shannon's informational paradigm to imaging along two main directions. We present a joint-processing approach where the informational goal of the acquired images is a prior knowledge which is exploited in order to optimize some tuning configurations of the imaging systems. Different joint-processing problems are examined (joint observation scale - estimation, joint compression - estimation, and joint acquisition - compression). We then extend the field of stochastic resonance studies by exploring some new signal-noise mixtures enabling useful noise effects, in coherent imaging and in magnetic resonance imaging. Stochastic resonance is also considered for its specific informational significance (the noise useful to information), as a phenomenon allowing to test and further assess the properties and potentialities of entropic or informational measures applied to imaging. Stochastic resonance is especially used as a benchmark to confront such informational measures to psychovisual measures on images
APA, Harvard, Vancouver, ISO, and other styles
8

Ding, Yi. "Amélioration de la qualité visuelle et de la robustesse aux post-traitements des images comprimées par une approche de type "problème inverse"." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0086.

Full text
Abstract:
La compression avec perte contrôlée d'information est utilisée pour atteindre de faibles débits binaires. Les techniques usuelles de décompression utilisent un traitement inverse, symétrique de celui de la compression, et font apparaître des artefacts: effet de blocs et d'anneaux. De plus, les images ne supportent plus les posttraitements de rehaussement et de détection de contours des objets. Dans notre travail, nous proposons un schéma de décompression basé sur la théorie des problèmes inverses. La décompression restaure l'image avec des contraintes qui utilisent des informations sur l'image originale et le procédé de compression: régularité de l'image originale et borne supérieure du bruit de quantification. Ce concept est appliqué à l'algorithme normalisé JPEG dans un cadre conforme au standard puis par une méthode qui nécessite un préfiltrage de l'image originale et un postfiltrage de l'image décomprimée par l'algorithme JPEG. Cette deuxième technique est plus efficace que la première. Nous proposons également un algorithme qui consiste à adapter la taille des blocs à la distance de corrélation des images d'une classe dans le schéma JPEG et à optimiser les coefficients de la matrice de normalisation. Cette approche est très efficace pour les images médicales. La méthode de régularisation est appliquée également à la compression multirésolution par décomposition en sous-bandes. Là encore deux approches sont proposées. L'une restaure l'image comprimée à chaque niveau de résolution, l'autre est une restauration globale. Les résultats obtenus sont très satisfaisants du point de vue de la qualité visuelle et de la robustesse aux post-traitements. Pour compléter notre travail, nous comparons les performances de cette technique avec une approche non linéaire par projection sur des paraboloïdes qui est adaptée à l'atténuation de l'effet d'anneaux. Les résultats obtenus permettent d'envisager de combiner les deux algorithmes dans un seul schéma de compression
Low bit-rate can only be attained by lossy compression techniques. Most of the lossy compression schemes proceed by blocks at the transformation or at the quantization stage. The usual decompression algorithm is a symmetric inverse processing of the compression scheme. This generates blocking artifacts and ringing noise. Furthermore, decompressed image can never support post-processing such as edge detection. In this work, we propose a decompression scheme based on the theory of inverse problems. The decompression restores the compressed image with some constraints based on information about both the original image and on the compression procedure: the image smoothness and the upper bound of the quantization error, respectively. We consider an extension of the regularized mean square approach for ill-posed problems proposed by Miller. This idea is first carried out for the JPEG algorithm. We proposed two schemes. In the first one the dequantization array is calculated in order to minimize the reconstruction error subjected to a mean regularity constraint on the whole image blacks. This scheme is in full compliance with the JPEG standard. In the second approach the original image is pre-filtered by an unsharp masking filter in order to enhance the image details before compression and post-filtered by a low-pass inverse filter after decompression to remove the blocks. The inverse filter is designed for an optimal restoration subjected to both a constraint on the image roughness and on the decompression error. This second technique is more efficient than the first one against blocking artifacts. It is also in full compliance with the JPEG standard but requires two additional processing components. The robustness of the decompressed image to edge detection was assessed for both proposed schemes. We also proposed an algorithm which adapts the block size to the correlation length of the image in JPEG and which optimizes the coefficients of the quantization array. This approach is very efficient for medical images. The regularized restoration method is also applied to the subband coding techniques that use vector quantization of the subband images. Two approaches are considered. In the first one the image is restored at each resolution level and in the second one a global restoration is applied. Experimental results prove that both methods significantly reduce blocking effects and preserve the edges of compressed images. In order to complete the research, we compare the performance of our proposal to a non-linear approach which is adapted to the attenuation of ringing noise
APA, Harvard, Vancouver, ISO, and other styles
9

Younan, Fouad. "Reconstruction de la dose absorbée in vivo en 3D pour les traitements RCMI et arcthérapie à l'aide des images EPID de transit." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30333/document.

Full text
Abstract:
Cette thèse a été réalisée dans le cadre de la dosimétrie des faisceaux de haute énergie délivrés au patient pendant un traitement de radiothérapie externe. L'objectif de ce travail est de vérifier que la distribution de dose 3D absorbée dans le patient est conforme au calcul réalisé sur le système de planification de traitement (TPS) à partir de l'imageur portal (en anglais : Electronic Portal Imaging Device, EPID). L'acquisition est réalisée en mode continu avec le détecteur aS-1200 au silicium amorphe embarqué sur la machine TrueBeam STx (VARIAN Medical system, Palo Alto, USA). Les faisceaux ont une énergie de 10 MeV et un débit de 600 UM.min-1. La distance source-détecteur (DSD) est de 150 cm. Après correction des pixels défectueux, une étape d'étalonnage permet de convertir leur signal en dose absorbée dans l'eau via une fonction de réponse. Des kernels de correction sont également utilisés pour prendre en compte la différence de matériaux entre l'EPID et l'eau et pour corriger la pénombre sur les profils de dose. Un premier modèle de calcul a permis ensuite de rétroprojeter la dose portale en milieu homogène en prenant en compte plusieurs phénomènes : les photons diffusés provenant du fantôme et rajoutant un excès de signal sur les images, l'atténuation des faisceaux, la diffusion dans le fantôme, l'effet de build-up et l'effet de durcissement du faisceau avec la profondeur. La dose reconstruite est comparée à celle calculée par le TPS avec une analyse gamma globale (3% du maximum de dose et 3 mm de DTA). L'algorithme a été testé sur un fantôme cylindrique homogène et sur un fantôme de pelvis à partir de champs modulés en intensité (RCMI) et à partir de champs d'arcthérapie volumique modulés, VMAT selon l'acronyme anglais Volumetric Modulated Arc Therapy. Le modèle a ensuite été affiné pour prendre en compte les hétérogénéités traversées dans le milieu au moyen des distances équivalentes eau dans une nouvelle approche de dosimétrie plus connue sous le terme de " in aqua vivo " (1). Il a été testé sur un fantôme thorax et, in vivo sur 10 patients traités pour une tumeur de la prostate à partir de champs VMAT. Pour finir, le modèle in aqua a été testé sur le fantôme thorax avant et après y avoir appliqué certaines modifications afin d'évaluer la possibilité de détection de sources d'erreurs pouvant influencer la bonne délivrance de la dose au patient.[...]
This thesis aims at the dosimetry of high energy photon beams delivered to the patient during an external radiation therapy treatment. The objective of this work is to use EPID the Electronic Portal Imaging Device (EPID) in order to verify that the 3D absorbed dose distribution in the patient is consistent with the calculation performed on the Treatment Planning System (TPS). The acquisition is carried out in continuous mode with the aS-1200 amorphous silicon detector embedded on the TrueBeam STx machine (VARIAN Medical system, Palo Alto, USA) for 10MV photons with a 600 UM.min-1 dose rate. The source-detector distance (SDD) is 150 cm. After correction of the defective pixels, a calibration step is performed to convert the signal into an absorbed dose in water via a response function. Correction kernels are also used to take into account the difference in materials between EPID and water and to correct penumbra. A first model of backprojection was performed to reconstruct the absorbed dose distribution in a homogeneous medium by taking into account several phenomena: the scattered photons coming from the phantom to the EPID, the attenuation of the beams, the diffusion into the phantom, the build-up, and the effect of beam hardening with depth. The reconstructed dose is compared to the one calculated by the TPS with global gamma analysis (3% as the maximum dose difference criteria and 3mm as the distance to agreement criteria). The algorithm was tested on a homogeneous cylindrical phantom and a pelvis phantom for Intensity-Modulated Radiation Therapy (IMRT) and (Volumetric Arc Therapy (VMAT) technics. The model was then refined to take into account the heterogeneities in the medium by using radiological distances in a new dosimetrical approach better known as "in aqua vivo" (1). It has been tested on a thorax phantom and, in vivo on 10 patients treated for a prostate tumor from VMAT fields. Finally, the in aqua model was tested on the thorax phantom before and after making some modifications to evaluate the possibility of detecting errors that could affect the correct delivery of the dose to the patient. [...]
APA, Harvard, Vancouver, ISO, and other styles
10

Azzabou, Noura. "Variable Bandwidth Image Models for Texture-Preserving Enhancement of Natural Images." Paris Est, 2008. http://pastel.paristech.org/4041/01/ThesisNouraAzzabou.pdf.

Full text
Abstract:
Cette thèse s’intéresse aux problèmes de restauration d’images et de préservation de textures. Cette tâche nécessite un modèle image qui permet de caractériser le signal qu’on doit obtenir. Un tel model s’appuie sur la définition de l’interaction entre les pixels et qui est caractérisé par deux aspects : (1) la similarité photométrique entre les pixels (2) la distance spatiale entre les pixels qui peut être comparée à une grandeur d’échelle. La première partie de la thèse introduit un nouveau modèle non paramétrique d’image. Ce modèle permet d’obtenir une description adaptative de l’image en utilisant des noyaux de taille variable obtenue à partir d’une étape de classification effectuée au préalable. La deuxième partie introduit une autre approche pour décrire la dépendance entre pixels d’un point de vue géométrique. Ceci est effectué à l’aide d’un modèle statistique de la co-occurrence entre les observations de point de vue géométrique. La dernière partie est une nouvelle technique de sélection automatique (pour chaque pixel) de la taille des noyaux utilisé au cours du filtrage. Cette thèse est conclue avec l’application de cette dernière approche dans différents contextes de filtrage ce qui montre sa flexibilité vis-à-vis des contraintes liées aux divers problèmes traités
This thesis is devoted to image enhancement and texture preservation issues. This task involves an image model that describes the characteristics of the recovered signal. Such a model is based on the definition of the pixels interaction that is often characterized by two aspects (i) the photometric similarity between pixels (ii) the spatial distance between them that can be compared to a given scale. The first part of the thesis, introduces novel non-parametric image models towards more appropriate and adaptive image description using variable bandwidth approximations driven from a soft classification in the image. The second part introduces alternative means to model observations dependencies from geometric point of view. This is done through statistical modeling of co-occurrence between observations and the use of multiple hypotheses testing and particle filters. The last part is devoted to novel adaptive means for spatial bandwidth selection and more efficient tools to capture photometric relationships between observations. The thesis concludes with providing other application fields of the last technique towards proving its flexibility toward various problem requirements
APA, Harvard, Vancouver, ISO, and other styles
11

Assadzadeh, Djafar. "Traitement des images échographiques." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37595555x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Assadzadeh, Djafar. "Traitement des images échographiques." Paris 13, 1986. http://www.theses.fr/1986PA132013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Yao, Yijun. "Exploration d’un équipement d'observation non intrusif pour la compréhension des processus de projection thermique." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA025.

Full text
Abstract:
La quatrième révolution industrielle a inauguré une nouvelle ère technologique caractérisée par la numérisation et l'intelligence. Dans ce contexte, on observe une tendance croissante à combiner les technologies traditionnelles avec les technologies plus modernes de l'information. Cette approche forme une nouvelle voie d’interprétation pour la recherche scientifique.Dans le cadre de cette étude propre à la projection thermique, le travail a consisté à utiliser un dispositif de visualisation non invasif pour la collecte en ligne des images d’un jet ensemencé de particules de poudre. Le traitement de ces images par un algorithme spécifiquement développé a abouti à l’extraction de données pertinentes et fiables sur les processus de construction d’un revêtement de projection.En effet, la projection thermique, en tant que technologie traditionnelle dans le domaine des traitements de surface est aussi une technique très prometteuse dans le domaine de la fabrication additive. Les revêtements produits par cette méthode présentent d’excellentes propriétés et sont largement appliqués dans des secteurs variés. Il parait donc important de changer son paradigme en y intégrant les technologies de l'informatique.Les expériences réalisées ont permis d’observer les phénomènes/processus mis en œuvre au cours d’une projection plasma de particules d’alumine et un algorithme a été développé pour extraire les données intéressantes contenues dans les images observées (distribution de la taille des particules en vol, schéma de croissance du revêtement sur le substrat, efficacité du dépôt, etc.). De cette manière, il a été possible d'étudier les distributions de la vitesse des particules et l'angle de vol tout au long du processus de projection plasma.Par la suite, la validation de la technique d'observation et de l’algorithme appliqué à la projection plasma a permis de s’intéresser au processus existant en projection à froid. L'observation in situ de particules de cuivre a donc été conduite pour identifier le processus d'empilement des couches pulvérisées à froid, d’en quantifier la taille et la dispersion des particules formant le dépôt. L'étude a également associé différentes méthodes de caractérisation de façon à comprendre le processus d'empilement des couches lors d’une projection à froid
The fourth industrial revolution ushered in a new technological era characterized by digitalization and intelligence. In this context, there is a growing tendency to combine traditional technologies with more modern information technologies. This approach is opening up a new avenue of interpretation for scientific research.In the context of this study, which is specific to thermal spraying, the work involved using a non-invasive display device to collect on-line images of a jet seeded with powder particles. Processing these images using a specially developed algorithm resulted in the extraction of relevant and reliable data on the construction processes of a spray coating.Indeed, thermal spraying, as a traditional technology in the field of surface treatments, is also a very promising technique in the field of additive manufacturing. The coatings produced by this method have excellent properties and are widely applied in a variety of sectors. It therefore seems important to change the paradigm by incorporating computer technologies.The experiments carried out enabled us to observe the phenomena/processes involved in the plasma spraying of alumina particles, and an algorithm was developed to extract the interesting data contained in the images observed (size distribution of the flying particles, growth pattern of the coating on the substrate, deposition efficiency, etc.). In this way, it was possible to study the particle velocity and flight angle distributions throughout the plasma spraying process.Subsequently, validation of the observation technique and the algorithm applied to plasma spraying made it possible to study the existing cold spraying process. In situ observation of copper particles was therefore carried out to identify the stacking process of cold-sprayed layers and to quantify the size and dispersion of the particles forming the deposit. The study also combined different characterization methods to understand the process of layer stacking during cold spraying
APA, Harvard, Vancouver, ISO, and other styles
14

Dawoud, Galal Mouawad. "Système imageur panoramique infrarouge : étude et conception, acquisition et traitement numérique des images." Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0006.

Full text
Abstract:
L’objectif de cette étude était la conception et la réalisation d'un imageur panoramique infrarouge performant et de coût réduit. L’utilisation d'un détecteur pyroélectrique, fonctionnant sans refroidissement, répond au problème posé. L’imageur est organisé autour d'un détecteur barrette a 16 éléments sur fluorure de polyvinylidene (PVDF) placé verticalement derrière une optique de focalisation, sur un plateau tournant qui assure le balayage sur un azimut de 360° à raison d'un tour par seconde. Une électronique à faible bruit, un circuit de multiplexage a 16 voies, un convertisseur analogique/numérique 12 bits et une carte d'interface, permettent d'effectuer le traitement des signaux en temps réel et le stockage des images sur un calculateur de type P. C. La caractérisation expérimentale de l'imageur qui a été construit, équipé pour les essais d'un détecteur pyroélectrique mono-élément (Li Ta O₃), a permis de confirmer une bonne sensibilité thermique avec un DTEB mesuré de 0,5 K à la température ambiante et d'autre part, une bonne résolution spatiale de 20 mrd a 50% de contraste avec une optique de Fresnel ouverte à f/D=1,2. Un logiciel de traitement d'images assurant un filtrage adaptatif suivant la méthode des moindres carrés a été développé et mis en œuvre sur le prototype. Une expérimentation en conditions réelles à l'extérieur, a permis d'obtenir la détection et la localisation d'un véhicule à une distance de 50 m.
APA, Harvard, Vancouver, ISO, and other styles
15

Cosimi, Julien. "Caractérisations d'un jet de plasma froid d'hélium à pression atmosphérique." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30136.

Full text
Abstract:
Les jets de plasma froid à la pression atmosphérique connaissent un réel engouement dans de nombreux domaines du biomédical depuis la dernière décennie. Dans les différentes applications de ces jets, le plasma généré est amené à interagir avec de nombreux types de surfaces. Les jets de plasma ont une influence sur les surfaces traitées, mais il est maintenant connu que les surfaces traitées influencent également le plasma en fonction de leurs caractéristiques. Le travail mené dans cette thèse a donc pour but de caractériser un jet de plasma froid d'hélium à la pression atmosphérique en contact avec trois types de surfaces (diélectrique, métallique et eau ultrapure) au moyen de différents diagnostics électriques et optiques afin de comprendre l'influence de la nature des surfaces sur les propriétés physiques du plasma et les espèces chimiques générées. La première partie de cette thèse s'intéresse à l'étude de l'influence des surfaces sur le jet de plasma. Différents paramètres sont étudiés, tels que la nature de la surface exposée, le débit de gaz, la distance entre la sortie du dispositif et la surface exposée ou encore la composition du gaz plasmagène. Pour ce faire, nous avons utilisé dans un premier temps l'imagerie Schlieren afin de suivre le flux d'hélium en sortie du dispositif en présence ou non de la décharge. La spectroscopie d'émission a été utilisée pour déterminer les espèces émissives générées par le plasma. L'imagerie rapide nous a permis de suivre la génération et la propagation de la décharge et la distribution de certaines espèces excitées dans le jet avec l'aide de filtres interférentiels passe-bandes. Une cible diélectrique entraîne un étalement de l'onde d'ionisation sur sa surface et une cible conductrice entraîne la formation d'un canal de conduction. L'évolution de la densité d'espèces excitées (OH*, N2*, He* et O*) augmente avec la permittivité relative de la surface traitée. Le rôle joué par les espèces actives générées par les jets de plasma est fondamental dans la cinétique et la chimie des mécanismes liés aux procédés plasma. La seconde étape de la thèse porte donc sur l'évaluation spatiale et temporelle des densités du radical hydroxyle OH, une espèce jouant un rôle majeur dans de nombreux mécanismes. La cartographie spatiale et l'évolution temporelle des densités absolues et relatives de OH ont été obtenues au moyen de diagnostics lasers LIF et PLIF. La densité de OH générée augmente avec la permittivité relative de la surface traitée. On constate que les radicaux OH restent présents dans le canal d'hélium entre deux décharges consécutives (plusieurs dizaines de microsecondes). Enfin, nous nous sommes intéressés à la production d'espèces réactives à longue durée de vie dans l'eau ultrapure traitée par plasma. L'influence de différents paramètres sur la concentration d'espèces dans l'eau traitée a été étudiée dans le but d'optimiser la production de ces espèces. Dans nos conditions expérimentales, la mise à la masse de l'eau ultrapure lors du traitement permet l'augmentation de la concentration de H2O2. Par ailleurs, la mise à la masse induit une diminution la concentration de NO2-
Cold atmospheric pressure plasma jets are a subject of great interest in many biomedical fields for the past decade. In the various applications of these jets, the plasma generated can interact with many types of surfaces. Plasma jets influence the treated surfaces, but it is now well known that the treated surface also influences the plasma according to their characteristics. The work carried out in this thesis therefore aims to characterize a cold helium atmospheric pressure plasma jet in contact with three surfaces (dielectric, metallic and ultrapure water) by means of different electrical and optical diagnostics in order to understand the influence of the nature of the surfaces on the physical properties of the plasma and the chemical species generated. The first part of this thesis is focused on the study of the influence of surfaces on the plasma jet. Different parameters are studied, such as the nature of treated surfaces, the gas flow, the distance between the outlet of the device and the surface or the composition of the injected gas. For this purpose, helium flow at the outlet of the device is followed by Schlieren imagery with and without the discharge. Emission spectroscopy is used to determine the emissive species generated by the plasma. ICCD imagery is employed to follow the generation and the propagation of the discharge and the distribution of several excited species in the jet by using band-pass interference filters. A dielectric target causes the ionization wave to spread over its surface and a conductive target leads to the formation of a conduction channel. The evolution of excited species densities (OH*, N2*, He* and O*) increases with the relative permittivity of the treated surface. As well known, active species generated by plasma jets play a fundamental role in the kinetics and the chemistry of the mechanisms linked to plasma processes. The second part of the present work therefore relates to the spatial and temporal evaluation of the densities of the hydroxyl radical OH which plays a major role in many cellular mechanisms. The spatial mapping and the temporal evolution of the absolute and relative densities of OH are obtained by LIF and PLIF laser diagnostics. The density of OH generated increases with the electrical conductivity of the treated surface. It can be noted that the OH molecules remain present in the helium channel between two consecutive discharges (several tens of microseconds). Finally, we focus on the production of chemical species in ultrapure water treated with plasma. The influence of different parameters on the concentration of species in the treated water has been studied to optimize the production of chemical species. In experimental conditions, grounding the ultrapure water during treatment increases the concentration of H2O2. Furthermore, the grounding induces a decrease in the NO2- concentration
APA, Harvard, Vancouver, ISO, and other styles
16

Roman-Gonzalez, Avid. "Compression Based Analysis of Image Artifacts: Application to Satellite Images." Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00935029.

Full text
Abstract:
This thesis aims at an automatic detection of artifacts in optical satellite images such as aliasing, A/D conversion problems, striping, and compression noise; in fact, all blemishes that are unusual in an undistorted image. Artifact detection in Earth observation images becomes increasingly difficult when the resolution of the image improves. For images of low, medium or high resolution, the artifact signatures are sufficiently different from the useful signal, thus allowing their characterization as distortions; however, when the resolution improves, the artifacts have, in terms of signal theory, a similar signature to the interesting objects in an image. Although it is more difficult to detect artifacts in very high resolution images, we need analysis tools that work properly, without impeding the extraction of objects in an image. Furthermore, the detection should be as automatic as possible, given the quantity and ever-increasing volumes of images that make any manual detection illusory. Finally, experience shows that artifacts are not all predictable nor can they be modeled as expected. Thus, any artifact detection shall be as generic as possible, without requiring the modeling of their origin or their impact on an image. Outside the field of Earth observation, similar detection problems have arisen in multimedia image processing. This includes the evaluation of image quality, compression, watermarking, detecting attacks, image tampering, the montage of photographs, steganalysis, etc. In general, the techniques used to address these problems are based on direct or indirect measurement of intrinsic information and mutual information. Therefore, this thesis has the objective to translate these approaches to artifact detection in Earth observation images, based particularly on the theories of Shannon and Kolmogorov, including approaches for measuring rate-distortion and pattern-recognition based compression. The results from these theories are then used to detect too low or too high complexities, or redundant patterns. The test images being used are from the satellite instruments SPOT, MERIS, etc. We propose several methods for artifact detection. The first method is using the Rate-Distortion (RD) function obtained by compressing an image with different compression factors and examines how an artifact can result in a high degree of regularity or irregularity affecting the attainable compression rate. The second method is using the Normalized Compression Distance (NCD) and examines whether artifacts have similar patterns. The third method is using different approaches for RD such as the Kolmogorov Structure Function and the Complexity-to-Error Migration (CEM) for examining how artifacts can be observed in compression-decompression error maps. Finally, we compare our proposed methods with an existing method based on image quality metrics. The results show that the artifact detection depends on the artifact intensity and the type of surface cover contained in the satellite image.
APA, Harvard, Vancouver, ISO, and other styles
17

Rousselot, Maxime. "Image quality assessment of High Dynamic Range and Wide Color Gamut images." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S034/document.

Full text
Abstract:
Ces dernières années, les technologies d’écran se sont considérablement améliorées. Par exemple, le contraste des écrans à plage dynamique élevée (HDR) dépasse de loin la capacité d’un écran conventionnel. De plus, un écran à gamut de couleur étendu (WCG) peut couvrir un espace colorimétrique plus grand que jamais. L'évaluation de la qualité de ces nouveaux contenus est devenue un domaine de recherche actif, les métriques de qualité SDR classiques n'étant pas adaptées. Cependant, les études les plus récentes négligent souvent une caractéristique importante: les chrominances. En effet, les bases de données existantes contiennent des images HDR avec un gamut de couleur standard, négligeant ainsi l’augmentation de l’espace colorimétrique due au WCG et les artefacts chromatiques. La plupart des mesures de qualité HDR objectives non plus ne prennent pas en compte ces artefacts. Pour surmonter cette problématique, dans cette thèse, nous proposons deux nouvelles bases de données HDR/WCG annotés avec des scores subjectifs présentant des artefacts chromatique réaliste. En utilisant ces bases de données, nous explorons trois solutions pour créer des métriques HDR/WCG: l'adaptation des métrics de qualité SDR, l’extension colorimétrique d’une métrique HDR connue appelée HDR-VDP-2 et, enfin, la fusion de diverses métriques de qualité et de features colorimétriques. Cette dernière métrique présente de très bonnes performances pour prédire la qualité tout en étant sensible aux distorsions chromatiques
To improve their ability to display astonishing images, screen technologies have been greatly evolving. For example, the contrast of high dynamic range rendering systems far exceed the capacity of a conventional display. Moreover, a Wide Color gamut display can cover a bigger color space than ever. Assessing the quality of these new content has become an active field of research as classical SDR quality metrics are not adapted. However, state-of-the-art studies often neglect one important image characteristics: chrominances. Indeed, previous databases contain HDR images with a standard gamut thus neglecting the increase of color space due to WCG. Due to their gamut, these databases are less prone to contain chromatic artifacts than WCG content. Moreover, most existing HDR objective quality metrics only consider luminance and are not considering chromatic artifacts. To overcome this problematic, in this thesis, we have created two HDR / WCG databases with annotated subjective scores. We focus on the creation of a realistic chromatic artifacts that can arise during compression. In addition, using these databases, we explore three solutions to create HDR / WCG metrics. First, we propose a method to adapt SDR metrics to HDR / WCG content. Then, we proposed an extension of a well-known HDR metric called HDR-VDP-2. Finally, we create a new metric based on the merger of various quality metric and color features. This last metric presents very good performance to predict quality while being sensitive to chromatic distortion
APA, Harvard, Vancouver, ISO, and other styles
18

Lin, Xiangbo. "Knowledge-based image segmentation using deformable registration: application to brain MRI images." Reims, 2009. http://theses.univ-reims.fr/exl-doc/GED00001121.pdf.

Full text
Abstract:
L'objectif de la thèse est de contribuer au recalage élastique d'images médicales intersujet-intramodalité, ainsi qu’à la segmentation d'images 3D IRM du cerveau dans le cas normal. L’algorithme des démons qui utilise les intensités des images pour le recalage est d’abord étudié. Une version améliorée est proposée en introduisant une nouvelle équation de calcul des forces pour résoudre des problèmes de recalages dans certaines régions difficiles. L'efficacité de la méthode est montrée sur plusieurs évaluations à partir de données simulées et réelles. Pour le recalage intersujet, une méthode originale de normalisation unifiant les informations spatiales et des intensités est proposée. Des contraintes topologiques sont introduites dans le modèle de déformation, visant à obtenir un recalage homéomorphique. La proposition est de corriger les points de déplacements ayant des déterminants jacobiens négatifs. Basée sur le recalage, une segmentation des structures internes est étudiée. Le principe est de construire une ontologie modélisant le connaissance a-priori de la forme des structures internes. Les formes sont représentées par une carte de distance unifiée calculée à partir de l'atlas de référence et celui déformé. Cette connaissance est injectée dans la mesure de similarité de la fonction de coût de l'algorithme. Un paramètre permet de balancer les contributions des mesures d'intensités et de formes. L'influence des différents paramètres de la méthode et des comparaisons avec d'autres méthodes de recalage ont été effectuées. De très bon résultats sont obtenus sur la segmentation des différentes structures internes du cerveau telles que les noyaux centraux et hippocampe
The research goal of this thesis is a contribution to the intra-modality inter-subject non-rigid medical image registration and the segmentation of 3D brain MRI images in normal case. The well-known Demons non-rigid algorithm is studied, where the image intensities are used as matching features. A new force computation equation is proposed to solve the mismatch problem in some regions. The efficiency is shown through numerous evaluations on simulated and real data. For intensity based inter-subject registration, normalizing the image intensities is important for satisfying the intensity correspondence requirements. A non-rigid registration method combining both intensity and spatial normalizations is proposed. Topology constraints are introduced in the deformable model to preserve an expected property in homeomorphic targets registration. The solution comes from the correction of displacement points with negative Jacobian determinants. Based on the registration, a segmentation method of the internal brain structures is studied. The basic principle is represented by ontology of prior shape knowledge of target internal structure. The shapes are represented by a unified distance map computed from the atlas and the deformed atlas, and then integrated into the similarity metric of the cost function. A balance parameter is used to adjust the contributions of the intensity and shape measures. The influence of different parameters of the method and comparisons with other registration methods were performed. Very good results are obtained on the segmentation of different internal structures of the brain such as central nuclei and hippocampus
APA, Harvard, Vancouver, ISO, and other styles
19

Walbron, Amaury. "Analyse rapide d’images 3D de matériaux hétérogènes : identification de la structure des milieux et application à leur caractérisation multi-échelle." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2015/document.

Full text
Abstract:
La simulation numérique est un outil de plus en plus utilisé pour la conception et le choix de matériaux composites. Celle-ci permet en effet de générer et tester numériquement des structures très diverses plus facilement et plus rapidement qu’avec des procédés de fabrication et de tests réels. Suite au choix d’un matériau virtuel et sa fabrication tangible, un retour sur expérience est nécessaire afin de valider simultanément la simulation et le procédé de fabrication. Pour cela, la numérisation des matériaux fabriqués permet de renvoyer une modélisation comparable aux structures virtuelles générées. Il devient possible d’appliquer les mêmes algorithmes de simulation et de vérifier les prévisions.Le sujet de cette thèse consiste donc en la modélisation de matériaux composites réels à partir d’images 3D, afin d’y retrouver le matériau virtuel originel. Des méthodes de traitement d’images sont appliquées aux images afin d’en extraire les informations sur la structure du matériau, c’est-à-dire la localisation de chaque constituant et, s’il y a lieu, de leurs orientations. Ces connaissances permettent théoriquement de simuler le comportement thermique et mécanique de structures constituées du matériau étudié.Cependant, en pratique, représenter fidèlement les composites demande de prendre une discrétisation très fine. Par conséquent, une structure macroscopique demande beaucoup trop de points de discrétisation et donc de temps de calcul et de mémoire pour simuler son comportement. Un aspect de la thèse consiste donc aussi en la détermination d’un matériau homogène équivalent, permettant d’alléger la charge de calcul pour les algorithmes de simulation
Digital simulation is a wide-spreading tool for composite materials design and choice. Indeed it allows to generate and test digitally various structures more easily and quickly than with real manufacturing and tests processes. A feedback is needed following the choice and the fabrication of a virtual material in order to simultaneously validate the simulation and the fabrication process. With this aim, models similar to generated virtual structures are obtained by digitization of manufacturing materials. The same simulation algorithms can then be applied and allow to verify the forecasts. This thesis is also about the modelling of composite materials from 3D images, in order to rediscover in them the original virtual material. Image processing methods are applied to images to extract material structure data, i.e. each constituent localization, and orientation if applicable. These knowledge theoretically allow to simulate thermal and mechanical behavior of structures constituted of studied material. However to accurately represent composites requires practically a very small discretization step. Therefore behavior simulation of a macroscopic structure needs too much discretization points, and then time and memory. Hence a part of this thesis focuses also on determination of equivalent homogeneous material problem, which allows, when resolved, to lighten calculation time for simulation algorithms
APA, Harvard, Vancouver, ISO, and other styles
20

Sdiri, Bilel. "2D/3D Endoscopic image enhancement and analysis for video guided surgery." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD030.

Full text
Abstract:
Grâce à l’évolution des procédés de diagnostiques médicaux et les développements technologiques, la chirurgie mini-invasive a fait des progrès remarquables au cours des dernières décennies surtout avec l’innovation de nouveaux outils médicaux tels que les systèmes chirurgicaux robotisés et les caméras endoscopiques sans fil. Cependant, ces techniques souffrent de quelques limitations liées essentiellement l’environnement endoscopique telles que la non uniformité de l’éclairage, les réflexions spéculaires des tissus humides, le faible contraste/netteté et le flou dû aux mouvements du chirurgien et du patient (i.e. la respiration). La correction de ces dégradations repose sur des critères de qualité d’image subjective et objective dans le contexte médical. Il est primordial de développer des solutions d’amélioration de la qualité perceptuelle des images acquises par endoscopie 3D. Ces solutions peuvent servir plus particulièrement dans l’étape d’extraction de points d’intérêts pour la reconstruction 3D des organes, qui sert à la planification de certaines opérations chirurgicales. C’est dans cette optique que cette thèse aborde le problème de la qualité des images endoscopiques en proposant de nouvelles méthodes d’analyse et de rehaussement de contraste des images endoscopiques 2D et 3D.Pour la détection et la classification automatique des anomalies tissulaires pour le diagnostic des maladies du tractus gastro-intestinal, nous avons proposé une méthode de rehaussement de contraste local et global des images endoscopiques 2D classiques et pour l’endoscopie capsulaire sans fil.La méthode proposée améliore la visibilité des structures locales fines et des détails de tissus. Ce prétraitement a permis de faciliter le processus de détection des points caractéristiques et d’améliorer le taux de classification automatique des tissus néoplasiques et tumeurs bénignes. Les méthodes développées exploitent également la propriété d’attention visuelle et de perception de relief en stéréovision. Dans ce contexte, nous avons proposé une technique adaptative d’amélioration de la qualité des images stéréo endoscopiques combinant l’information de profondeur et les contours des tissues. Pour rendre la méthode plus efficace et adaptée aux images 3Dl e rehaussement de contraste est ajusté en fonction des caractéristiques locales de l’image et du niveau de profondeur dans la scène tout en contrôlant le traitement inter-vues par un modèle de perception binoculaire.Un test subjectif a été mené pour évaluer la performance de l’algorithme proposé en termes de qualité visuelle des images générées par des observateurs experts et non experts dont les scores ont démontré l’efficacité de notre technique 3D d’amélioration du contraste. Dans cette même optique,nous avons développé une autre technique de rehaussement du contraste des images endoscopiques stéréo basée sur la décomposition en ondelettes.Ce qui offre la possibilité d’effectuer un traitement multi-échelle et d’opérer une traitement sélectif. Le schéma proposé repose sur un traitement stéréo qui exploite à la fois l’informations de profondeur et les redondances intervues,ainsi que certaines propriétés du système visuel humain, notamment la sensibilité au contraste et à la rivalité/combinaison binoculaire. La qualité visuelle des images traitées et les mesures de qualité objective démontrent l’efficacité de notre méthode qui ajuste l’éclairage des images dans les régions sombres et saturées et accentue la visibilité des détails liés aux vaisseaux sanguins et les textures de tissues
Minimally invasive surgery has made remarkable progress in the last decades and became a very popular diagnosis and treatment tool, especially with the rapid medical and technological advances leading to innovative new tools such as robotic surgical systems and wireless capsule endoscopy. Due to the intrinsic characteristics of the endoscopic environment including dynamic illumination conditions and moist tissues with high reflectance, endoscopic images suffer often from several degradations such as large dark regions,with low contrast and sharpness, and many artifacts such as specular reflections and blur. These challenges together with the introduction of three dimensional(3D) imaging surgical systems have prompted the question of endoscopic images quality, which needs to be enhanced. The latter process aims either to provide the surgeons/doctors with a better visual feedback or improve the outcomes of some subsequent tasks such as features extraction for 3D organ reconstruction and registration. This thesis addresses the problem of endoscopic image quality enhancement by proposing novel enhancement techniques for both two-dimensional (2D) and stereo (i.e. 3D)endoscopic images.In the context of automatic tissue abnormality detection and classification for gastro-intestinal tract disease diagnosis, we proposed a pre-processing enhancement method for 2D endoscopic images and wireless capsule endoscopy improving both local and global contrast. The proposed method expose inner subtle structures and tissues details, which improves the features detection process and the automatic classification rate of neoplastic,non-neoplastic and inflammatory tissues. Inspired by binocular vision attention features of the human visual system, we proposed in another workan adaptive enhancement technique for stereo endoscopic images combining depth and edginess information. The adaptability of the proposed method consists in adjusting the enhancement to both local image activity and depth level within the scene while controlling the interview difference using abinocular perception model. A subjective experiment was conducted to evaluate the performance of the proposed algorithm in terms of visual qualityby both expert and non-expert observers whose scores demonstrated the efficiency of our 3D contrast enhancement technique. In the same scope, we resort in another recent stereo endoscopic image enhancement work to the wavelet domain to target the enhancement towards specific image components using the multiscale representation and the efficient space-frequency localization property. The proposed joint enhancement methods rely on cross-view processing and depth information, for both the wavelet decomposition and the enhancement steps, to exploit the inter-view redundancies together with perceptual human visual system properties related to contrast sensitivity and binocular combination and rivalry. The visual qualityof the processed images and objective assessment metrics demonstrate the efficiency of our joint stereo enhancement in adjusting the image illuminationin both dark and saturated regions and emphasizing local image details such as fine veins and micro vessels, compared to other endoscopic enhancement techniques for 2D and 3D images
APA, Harvard, Vancouver, ISO, and other styles
21

Mitra, Jhimli. "Multimodal Image Registration applied to Magnetic Resonance and Ultrasound Prostatic Images." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00786032.

Full text
Abstract:
This thesis investigates the employment of different deformable registration techniques to register pre-operative magnetic resonance and inter-operative ultrasound images during prostate biopsy. Accurate registration ensures appropriate biopsy sampling of malignant prostate tissues and reduces the rate of re-biopsies. Therefore, we provide comparisons and experimental results for some landmark- and intensity-based registration methods: thin-plate splines, free-form deformation with B-splines. The primary contribution of this thesis is a new spline-based diffeomorphic registration framework for multimodal images. In this framework we ensure diffeomorphism of the thin-plate spline-based transformation by incorporating a set of non-linear polynomial functions. In order to ensure clinically meaningful deformations we also introduce the approximating thin-plate splines so that the solution is obtained by a joint-minimization of the surface similarities of the segmented prostate regions and the thin-plate spline bending energy. The method to establish point correspondences for the thin-plate spline-based registration is a geometric method based on prostate shape symmetry but a further improvement is suggested by computing the Bhattacharyya metric on shape-context based representation of the segmented prostate contours. The proposed deformable framework is computationally expensive and is not well-suited for registration of inter-operative images during prostate biopsy. Therefore, we further investigate upon an off-line learning procedure to learn the deformation parameters of a thin-plate spline from a training set of pre-operative magnetic resonance and its corresponding inter-operative ultrasound images and build deformation models by applying spectral clustering on the deformation parameters. Linear estimations of these deformation models are then applied on a test set of inter-operative and pre-operative ultrasound and magnetic resonance images respectively. The problem of finding the pre-operative magnetic resonance image slice from a volume that matches the inter-operative ultrasound image has further motivated us to investigate on shape-based and image-based similarity measures and propose for slice-to-slice correspondence based on joint-maximization of the similarity measures.
APA, Harvard, Vancouver, ISO, and other styles
22

WERTEL, FOURNIER ISABELLE. "L'iconographe dans le labyrinthe des mots et des images pour un imagier numerique comme espace cartographie de l'iconotheque." Paris 8, 1999. http://www.theses.fr/1999PA081628.

Full text
Abstract:
Nos travaux sont une contribution a la reflexion concernant la construction de systemes de representation adaptes aux pratiques d'associations visuelles des iconographes (picture editor), pour leur offrir des cartographies semantiques des banques d'images de presse et d'illustration ainsi que des outils de navigation qui associent images et langage dans un espace numerique multidimensionnel. Les travaux sont presentes selon deux poles : etude de l'activite des iconographes et etude des dispositifs physiques et numeriques d'acces aux images dans les phototheques. Nous donnons une representation des activites cognitives des iconographes, en nous appuyant sur les recherches actuelles dans le domaine de l'analyse des << usages >> qui referent a l'ethnomethodologie. Nous avons etudie le role del'oeil des gestes et de la memoire, dans les lieux ou se deroule l'activite pratique de recherche documentaire d'images. Nous presentons une premiere cartographie des iconotheques francaises ainsi qu'une typologie des collections qui ont engage une mutation vers les techniques numeriques. Nous etudions les systemes descriptifs des images developpes dans les banques de donnees textuelles associeesaux images, ainsi que les postes de travail permettant d'afficher les photographies sous forme de damier d'images. Les systemes descriptifs permettent de construire des banques d'images indexees associant des lexiques et des thesaurii. Nous utilisons ensuite des programmmes de cartographie semantique "automatique", pour mettre en valeur des similarites et des situations de recouvrement entre les images. Cette cartographie donnant une visibilite globale sur le corpus de l'iconotheque numerique. Nous discutons de nouveaux formalismes cartographiques s'appuyant sur des metaphores empruntees au monde "reel" pour la construction d'outils de cartographie et de navigation en trois dimensions que nous appelons << imagier numerique>>.
APA, Harvard, Vancouver, ISO, and other styles
23

Atnafu, Besufekad Solomon. "Modélisation et traitement de requêtes images complexes." Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0032/these.pdf.

Full text
Abstract:
La recherche d'images par le contenu est d'une importance croissante dans de nombreux domaines d'application. Pour cette raison, il existe des numerus recherche dans les deux domaines : DBMS et reconnaissance de formes. Mais, la plupart des systèmes existants ont, en particulier, le défaut de n'offrir aucun cadre formel pour les requêtes dites hybrides. Or, disposer d'un cadre formel bien fondé est très important pour traiter efficacement de telles requêtes. Dans cette thèse, nous présenterons un modèle de représentation de données images à même de permettre de formuler des requêtes multicritères. Fondés sur ce modèle, on a développé une algèbre fondée sur le continue des images et présenté les propriétés des opérateurs. Des heuristiques d'optimisation de requêtes seront ensuite étudiées. Afin de valider expérimentalement la faisabilité et la pertinence des concepts et techniques introduits, nous avons implémenté un prototype de système de gestion d'images médicales appelé EMIMS
Querying images by their contents is of increasing importance in many application domains. For this reason, many researches are conducted in the two fields: DBMS and pattern recognition. But, the majority of the existing systems do not offer any formal framework to integrate the techniques in the two fields for effective multi-criteria queries on images. However, having a formal framework is necessary if one intends to treat such types of image queries effectively. In this thesis, we present image data repository models that allow to formulate multi-criteria queries. Then, based on this model, we introduced a similarity-based algebra that enables to formulate similarity-based queries and multi-criteria queries effectively and presented properties of the operators. We also presented techniques for similarity-based query optimization. We then developed a prototype called EMIMS (Extended Medical Image Management System) to show that our proposals in practical applications
APA, Harvard, Vancouver, ISO, and other styles
24

Duclos, Pierre. "Étude du parallélisme en traitement des images." Nice, 1988. http://www.theses.fr/1988NICE4209.

Full text
Abstract:
Validation du démonstrateur de calculateur vectoriel parallèle OPSILA pour les algorithmes de traitement des images. OPSILA a la particularité d'être dynamiquement reconfigurable suivant les deux modes de fonctionnement : parallélisme synchrone et parallélisme asynchrone à couplage fort
APA, Harvard, Vancouver, ISO, and other styles
25

Atnafu, Besufekad Solomon Brunie Lionel. "Modélisation et traitement de requêtes images complexes." Villeurbanne : Doc'INSA, 2004. http://docinsa.insa-lyon.fr/these/pont.php?id=atnafu_besufekad.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Hachicha, Walid. "Traitement, codage et évaluation de la qualité d’images stéréoscopiques." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132037.

Full text
Abstract:
Les récents développements des technologies de l’imagerie 3D et en particulier la stéréoscopie ont ouvert de nouveaux horizons dans de nombreux domaines d’application tels que la TV 3D, le cinéma 3D, les jeux vidéo et la vidéoconférence. Ces avancées technologiques ont soulevé plusieurs défis aussi bien sur le plan théorique que pratique et en particulier dans le domaine du codage des données 3D. En effet, l’énorme quantité d’information issue des systèmes d’acquisition requiert des solutions efficaces pour la coder et la transmettre. L’objectif de cette thèse est le développement de méthodes pour optimiser les principales étapes de la chaine de traitement et transmission d’images stéréoscopiques. Nous nous limitons dans ce travail au rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques. La première partie de ce travail traite les problèmes d’évaluation et d’amélioration de la qualité d’images stéréoscopiques. Nous nous intéressons d’abord au rehaussement de contraste en s’inspirant des méthodes 2D et en intégrant quelques éléments liés à la perception visuelle. Nous proposons ainsi une première méthode de rehaussement de contraste local basée sur la carte de saillance visuelle. L’aspect qualité est aussi traité selon une approche basée sur les protocoles et méthodes conues pour le cas des images 2D et 3D. Cette méthode exploite les caractéristiques et propriétés connues du système visuel humain (SVH) telles que la non-linéarité, la sensibilité au contraste, la sélectivité directionnelle et fréquentielle ainsi que le seuil de discrimination binoculaire. Nous avons aussi d´eveloppé une méthode de prédiction de la qualité d’images stéréoscopiques sans référence. Cette dernière est basée sur des descripteurs 3D statistiques issus de la scène naturelle afin identifier les distorsions. Ces descripteurs 3D statistiques correspondent aux attributs extraits à partir de la paire stéréo naturelle et de la carte de disparité. L’extraction de ces descripteurs se fait au moyen de l’analyse en ondelettes des images stéréoscopiques. La deuxième partie de cette thèse traite les problèmes de compression d’images stéréoscopiques. Nous avons commencé par l’exploitation de la transformée en cosinus discret unidirectionnel et unidimensionnel pour encoder l’image résiduelle issue de la compensation de disparité. Ensuite, en se basant sur la transformée en ondelettes, nous avons étudié deux techniques pour optimiser le calcul de l’image résiduelle. Enfin, nous avons proposé des méthodes d’allocation de débit pour la compression des images stéréoscopiques. En général, le problème d’allocation de bits est résolu d’une manière empirique en cherchant le débit optimale qui minimise une certaine distorsion. Cependant cette stratégie est complexe. Pour cela, nous avons proposé des méthodes d’allocation de débits, rapides et efficaces appropriées pour le codage en boucle ouverte et en boucle fermée. Cette thèse ouvre des perspectives dans les trois thématiques abordées, à savoir le rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques
Recent developments in 3D stereoscopic technology have opened new horizons in many application fields such as 3DTV, 3D cinema, video games and videoconferencing and at the same time raised a number of challenges related to the processing and coding of 3D data. Today, stereoscopic imaging technology is becoming widely used in many fields. There are still some problems related to the physical limitations of image acquisition systems, e.g. transmission and storage requirements. The objective of this thesis is the development of methods for improving the main steps of stereoscopic imaging pipeline such as enhancement, coding and quality assessment. The first part of this work addresses quality issues including contrast enhancement and quality assessment of stereoscopic images. Three algorithms have been proposed. The first algorithm deals with the contrast enhancement aiming at promoting the local contrast guided by calculated/estimated object importance map in the visual scene. The second and the third algorithms aim at predicting the distortion severity of stereo images. In the second one, we have proposed a fullreference metric that requires the reference image and is based on some 2D and 3D findings such as amplitude non-linearity, contrast sensitivity, frequency and directional selectivity, and binocular just noticeable difference model. While in the third algorithm, we have proposed a no-reference metric which needs only the stereo pair to predict its quality. The latter is based on Natural Scene statistics to identify the distortion affecting the stereo image. The statistic 3D features consist in combining features extracted from the natural stereo pair and those from the estimate disparity map. To this end, a joint wavelet transform, inspired from the vector lifting concept is first employed. Then, the features are extracted from the obtained subbands. The second part of this dissertation addresses stereoscopic image compression issues. We started by investigating a one-dimensional directional discrete cosine transform to encode the disparity compensated residual image. Afterwards, and based on the wavelet transform, we investigated two techniques for optimizing the computation of the residual image. Finally, we present efficient bit allocation methods for stereo image coding purpose. Generally, the bit allocation problem is solved in an empirical manner by looking for the optimal rates leading to the minimum distortion value. Thanks to recently published work on approximations of the entropy and distortion functions, we proposed accurate and fast bit allocation schemes appropriate for the open-loop and closed-loop based stereo coding structures
APA, Harvard, Vancouver, ISO, and other styles
27

Darmet, Ludovic. "Vers une approche basée modèle-image flexible et adaptative en criminalistique des images." Thesis, Université Grenoble Alpes, 2020. https://tel.archives-ouvertes.fr/tel-03086427.

Full text
Abstract:
Les images numériques sont devenues un moyen de communication standard et universel. Elles prennent place dans notre vie de tous les jours, ce qui entraîne directement des inquiétudes quant à leur intégrité. Nos travaux de recherche étudient différentes méthodes pour examiner l’authenticité d’une image numérique. Nous nous plaçons dans un contexte réaliste où les images sont en grandes quantités et avec une large diversité de manipulations et falsifications ainsi que de sources. Cela nous a poussé à développer des méthodes flexibles et adaptative face à cette diversité.Nous nous sommes en premier lieu intéressés à la détection de manipulations à l’aide de la modélisation statistiques des images. Les manipulations sont des opérations élémentaires telles qu’un flou, l’ajout de bruit ou une compression. Dans ce cadre, nous nous sommes plus particulièrement focalisés sur les effets d’un pré-traitement. A cause de limitations de stockage et autres, une image peut être re-dimensionnée ou re-compressée juste après sa capture. L’ajout d’une manipulation se fait donc ensuite sur une image déjà pré-traitée. Nous montrons qu’un pré-redimensionnement pour les images de test induit une chute de performance pour des détecteurs entraînés avec des images en pleine taille. Partant de ce constat, nous introduisons deux nouvelles méthodes pour mitiger cette chute de performance pour des détecteurs basés sur l’utilisation de mixtures de gaussiennes. Ces détecteurs modélisent les statistiques locales, sur des tuiles (patches), d’images naturelles. Cela nous permet de proposer une adaptation de modèle guidée par les changements dans les statistiques locales de l’image. Notre première méthode est une adaptation entièrement non-supervisée, alors que la seconde requière l’accès à quelques labels, faiblement supervisé, pour les images pré-resizées.Ensuite, nous nous sommes tournés vers la détection de falsifications et plus spécifiquement l’identification de copier-coller. Le copier-coller est l’une des falsification les plus populaires. Une zone source est copiée vers une zone cible de la même image. La grande majorité des détecteurs existants identifient indifféremment les deux zones (source et cible). Dans un scénario opérationnel, seulement la zone cible est intéressante car uniquement elle représente une zone de falsification. Ainsi, nous proposons une méthode pour discerner les deux zones. Notre méthode utilise également la modélisation locale des statistiques de l’image à l’aide de mixtures de gaussiennes. La procédure est spécifique à chaque image et ainsi évite la nécessité d’avoir recours à de larges bases d’entraînement et permet une plus grande flexibilité.Des résultats expérimentaux pour toutes les méthodes précédemment décrites sont présentés sur des benchmarks classiques de la littérature et comparés aux méthodes de l’état de l’art. Nous montrons que le détecteur classique de détection de manipulations basé sur les mixtures de gaussiennes, associé à nos nouvelles méthodes d’adaptation de modèle peut surpasser les résultats de récentes méthodes deep-learning. Notre méthode de discernement entre source/cible pour copier-coller égale ou même surpasse les performances des dernières méthodes d’apprentissage profond. Nous expliquons ces bons résultats des méthodes classiques face aux méthodes d’apprentissage profond par la flexibilité et l’adaptabilité supplémentaire dont elles font preuve.Pour finir, cette thèse s’est déroulée dans le contexte très spécial d’un concours organisé conjointement par l’Agence National de la Recherche et la Direction Général de l’Armement. Nous décrivons dans un appendice, les différents tours de ce concours et les méthodes que nous avons développé. Nous dressons également un bilan des enseignements de cette expérience qui avait pour but de passer de benchmarks publics à une détection de falsifications d’images très réalistes
Images are nowadays a standard and mature medium of communication.They appear in our day to day life and therefore they are subject to concernsabout security. In this work, we study different methods to assess theintegrity of images. Because of a context of high volume and versatilityof tampering techniques and image sources, our work is driven by the necessity to developflexible methods to adapt the diversity of images.We first focus on manipulations detection through statistical modeling ofthe images. Manipulations are elementary operations such as blurring,noise addition, or compression. In this context, we are more preciselyinterested in the effects of pre-processing. Because of storagelimitation or other reasons, images can be resized or compressed justafter their capture. Addition of a manipulation would then be applied on analready pre-processed image. We show that a pre-resizing of test datainduces a drop of performance for detectors trained on full-sized images.Based on these observations, we introduce two methods to counterbalancethis performance loss for a pipeline of classification based onGaussian Mixture Models. This pipeline models the local statistics, onpatches, of natural images. It allows us to propose adaptation of themodels driven by the changes in local statistics. Our first method ofadaptation is fully unsupervised while the second one, only requiring a fewlabels, is weakly supervised. Thus, our methods are flexible to adaptversatility of source of images.Then we move to falsification detection and more precisely to copy-moveidentification. Copy-move is one of the most common image tampering technique. Asource area is copied into a target area within the same image. The vastmajority of existing detectors identify indifferently the two zones(source and target). In an operational scenario, only the target arearepresents a tampering area and is thus an area of interest. Accordingly, wepropose a method to disentangle the two zones. Our method takesadvantage of local modeling of statistics in natural images withGaussian Mixture Model. The procedure is specific for each image toavoid the necessity of using a large training dataset and to increase flexibility.Results for all the techniques described above are illustrated on publicbenchmarks and compared to state of the art methods. We show that theclassical pipeline for manipulations detection with Gaussian MixtureModel and adaptation procedure can surpass results of fine-tuned andrecent deep-learning methods. Our method for source/target disentanglingin copy-move also matches or even surpasses performances of the latestdeep-learning methods. We explain the good results of these classicalmethods against deep-learning by their additional flexibility andadaptation abilities.Finally, this thesis has occurred in the special context of a contestjointly organized by the French National Research Agency and theGeneral Directorate of Armament. We describe in the Appendix thedifferent stages of the contest and the methods we have developed, as well asthe lessons we have learned from this experience to move the image forensics domain into the wild
APA, Harvard, Vancouver, ISO, and other styles
28

Li, Xiaobing. "Automatic image segmentation based on level set approach: application to brain tumor segmentation in MR images." Reims, 2009. http://theses.univ-reims.fr/exl-doc/GED00001120.pdf.

Full text
Abstract:
L'objectif de la thèse est de développer une segmentation automatique des tumeurs cérébrales à partir de volumes IRM basée sur la technique des « level sets ». Le fonctionnement «automatique» de ce système utilise le fait que le cerveau normal est symétrique et donc la localisation des régions dissymétriques permet d'estimer le contour initial de la tumeur. La première étape concerne le prétraitement qui consiste à corriger l'inhomogénéité de l'intensité du volume IRM et à recaler spatialement les volumes d'IRM d'un même patient à différents instants. Le plan hémisphérique du cerveau est recherché en maximisant le degré de similarité entre la moitié du volume et de sa réflexion. Le contour initial de la tumeur est ainsi extrait à partir de la dissymétrie entre les deux hémisphères. Ce contour initial est évolué et affiné par une technique de « level set » afin de trouver le contour réel de la tumeur. Les critères d'arrêt de l'évolution ont été proposés en fonction des propriétés de la tumeur. Finalement, le contour de la tumeur est projetée sur les images adjacentes pour former les nouveaux contours initiaux. Ce traitement est itéré sur toutes les coupes pour obtenir la segmentation de la tumeur en 3D. Le système ainsi réalisé est utilisé pour suivre un patient pendant toute la période thérapeutique, avec des examens tous les quatre mois, ce qui permet au médecin de contrôler l'état de développement de la tumeur et ainsi d'évaluer l'efficacité du traitement thérapeutique. La méthode a été évaluée quantitativement par la comparaison avec des tracés manuels des experts. De bons résultats sont obtenus sur des images réelles IRM
The aim of this dissertation is to develop an automatic segmentation of brain tumors from MRI volume based on the technique of "level sets". The term "automatic" uses the fact that the normal brain is symmetrical and the localization of asymmetrical regions permits to estimate the initial contour of the tumor. The first step is preprocessing, which is to correct the intensity inhomogeneity of volume MRI and spatially realign the MRI volumes of the same patient at different moments. The plan hemispherical brain is then calculated by maximizing the degree of similarity between the half of the volume and his reflexion. The initial contour of the tumor can be extracted from the asymmetry between the two hemispheres. This initial contour is evolved and refined by the technique "level set" in order to find the real contour of the tumor. The criteria for stopping the evolution have been proposed and based on the properties of the tumor. Finally, the contour of the tumor is projected onto the adjacent images to form the new initial contours. This process is iterated on all slices to obtain the segmentation of the tumor in 3D. The proposed system is used to follow up patients throughout the medical treatment period, with examinations every four months, allowing the physician to monitor the state of development of the tumor and evaluate the effectiveness of the therapy. The method was quantitatively evaluated by comparison with manual tracings experts. Good results are obtained on real MRI images
APA, Harvard, Vancouver, ISO, and other styles
29

Tschumperlé, David. "PDE's based regularization of multivalued images and applications." Nice, 2002. http://www.theses.fr/2002NICE5779.

Full text
Abstract:
Nous nous intéressons aux approches par EDP pour la régularisation d'images multivaluées, et leurs applications à une large classe de problèmes d'intérêts. L'étude et la comparaison des méthodes existantes nous permet à la fois de proposer un cadre mathématique commun mieux adapté aux interprétations géométriques locales de ces EDP, mais aussi de concevoir des schémas numériques efficaces pour leur mise en oeuvre. Nous développons de cette fa\c{c}on une nouvelle approche de régularisation multivaluée vérifiant certaines propriétés géométriques locales importantes, qui peut être utilisée dans de nombreuses applications différentes. Nous abordons ensuite le problème lié à la régularisation de données multivaluées contraintes. Un formalisme variationel est proposé afin de traiter dans un cadre unifié, des données de direction comme les champs de vecteurs unitaires, de matrices de rotation, de tenseurs de diffusion etc. Les solutions apportées sont analysées et utilisées avec succès pour résoudre de nombreux problèmes, notamment la régularisation et l'interpolation d'images couleurs, la visualisation de flots, la régularisation de mouvements rigides estimés à partir de séquences vidéos, et l'aide à la reconstruction de réseaux cohérents de fibres dans la matière blanche du cerveau, \`a partir de la régularisation d'images d'IRM de diffusion
We are interested in PDE-based approaches for vector-valued image regularization, and its applications for a wide class of interesting image processing problems. The comparative study of existing methods allows us to propose a common mathematical framework, better adapted to understand the underlying diffusion geometry of the regularization processes, as well as design corresponding numerical schemes. Thus we develop a new multivalued image regularization approach that verifies important geometric properties. It can be used in a large range of regularization-related applications. We also tackle the problem of constrained regularization and propose a specific variational formalism unifying in a common framework, the equations acting on direction features~: unit vectors, rotation matrices, diffusion tensors, etc. Proposed solutions are analyzed and used with success to solve applications of interest, such as color image regularization and interpolation, flow visualization, regularization of rigid motions estimated from video sequences, and aided reconstruction of coherent fibers network models in the white matter of the~brain, using DT-MRI imaging
APA, Harvard, Vancouver, ISO, and other styles
30

Perrotton, Xavier. "Détection automatique d'objets dans les images numériques : application aux images aériennes." Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0025.

Full text
Abstract:
Cette thèse a été effectuée dans le cadre d'une thèse CIFRE entre EADS Innovation Works et Télécom ParisTech. Elle est dédiée à la détection d'objets dans les images. Les travaux se sont concentrés sur les méthodes à base d'Adaboost en raison de son efficacité théorique et pratique. Un nouveau descripteur a été introduit pour mieux discriminer les objets, ce descripteur a été mis en oeuvre dans une première chaîne algorithmique permettant de détecter des avions dans des images réelles à partir d'un apprentissage sur des images simulées. Une première amélioration permet d'explorer l'espace des descripteurs et de rendre ainsi la modélisation de la cible plus robuste. L'idée consiste à construire une cascade à partir d'une première famille de descripteurs et de remplacer cette famille par une nouvelle famille de l'espace de recherche lorsque le dernier descripteur sélectionné n'apporte plus d'information discriminante. L'algorithme permet ainsi d'utiliser la complémentarité de différents descripteurs et de mieux décrire l'objet à détecter. La deuxième amélioration consiste à permettre au modèle d'apprendre toutes les vues d'un objet 3D, et de le reconnaître à partir d'une vue unique quelconque. Une structure hiérarchique implicite décroissante permet de modéliser les différentes vues. Ces deux approches complémentaires ont finalement été fusionnées pour obtenir une chaîne algorithmique complète. En appliquant ce modèle à différentes tâches de détection, nous avons vérifié d'une part l'apport du modèle multi-vues pour apprendre des apparences et des poses multiples et d'autre part l'amélioration apportée par la combinaison de familles de descripteurs
This thesis was conducted as part of a CIFRE contract between EADS Innovation Works and Telecom ParisTech. The presented work aims at defining techniques for the detection and localisation of objects in digital images. This work focused on methods based on AdaBoost because of its theoretical and practical effectiveness. A new descriptor robust to background and target texture variations is introduced. A first object detection framework based on this descriptor is proposed and applied. Observed results prove that a vision system can be trained on adapted simulated data and yet be efficient on real images. A first improvement allows the proposed cascade to explore the space of descriptors and thus to improve the modeling of the target. The idea developed here consists in the beginning to build a cascade with one type of descriptors and then introduce new kinds of descriptors when the current descriptor family does not bring enough differentiating information anymore. We present a novel boosting based learning approach which automatically learns a multi-view detector without using intra-class sub-categorization based on prior knowledge. An impicit hierarchical structure enables both a precise modelling and an efficient sharing of descriptors between views. These two complementary approaches are finnally merged to obtain a complete algorithm chain. With the application of this model to different tasks of detection, we verified, on one hand, the efficiency of multi-view model to learn different appearances and poses, and on the other hand, the performances improvement made by the combination of families of descriptors
APA, Harvard, Vancouver, ISO, and other styles
31

Huet-Guillemot, Florence. "Fusion d'images segmentees et interpretees. Application aux images aeriennes." Cergy-Pontoise, 1999. http://biblioweb.u-cergy.fr/theses/99CERG0057.pdf.

Full text
Abstract:
Puisqu'il n'existe aucun operateur capable a lui seul de resoudre la question de la segmentation, une forte tendance s'est developpee en faveur de la cooperation et de la fusion de methodes. Nous avons choisi d'explorer cette voie dans ce memoire. Dans un premier temps, nous proposons une cooperation contour/region originale qui garantit une tres bonne localisation des contours, sans sur-detection en presence de bruit ou de texture. La caracterisation de telles zones au travers de cartes de texture/bruit nous a egalement permis de mettre en uvre un procede de fusion de plusieurs segmentations, adaptant le choix de l'operateur de segmentation a la zone consideree. Dans un second temps, nous avons voulu nous appuyer sur des informations plus riches, d'un niveau (semantique) superieur, et avons mis en uvre une cooperation segmentation/interpretation. Nous avons developpe, a cet effet, un systeme d'interpretation flou fournissant, pour chaque region, un degre d'appartenance a chaque classe d'objets. Nous montrons que l'evaluation de la segmentation trouve une solution avec l'interpretation. En effet, le niveau d'interpretation d'une region est representatif de la performance locale de l'operateur de segmentation pour extraire l'objet. Nous avons donc selectionne plusieurs segmentations, de l'approche contour et de l'approche region, et tente de beneficier du meilleur de chacune. Un systeme de fusion d'images, segmentees par l'ensemble des detecteurs choisis et interpretees par notre classifieur flou, est developpe. Plusieurs operateurs de fusion dans le cadre flou sont proposes pour profiter de la complementarite et de la redondance des diverses segmentations.
APA, Harvard, Vancouver, ISO, and other styles
32

Turcotte, Maryse. "Méthode basée sur la texture pour l'étiquetage des images." Sherbrooke : Université de Sherbrooke, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
33

Harp, Josselin. "Contribution à la segmentation des images : applications à l'estimation des plans texturés dans des images planes et omnidirectionnelles." Amiens, 2003. http://www.theses.fr/2003AMIE0313.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Ainouz, Samia. "Analyse et traitement des images codées en polarisation." Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00443685.

Full text
Abstract:
Ce travail concerne les développements nécessaires à la mise en oeuvre efficace de systèmes imageurs polarimétriques et comporte plusieurs volets allant de la théorie amont à l'utilisation d'algorithmes de traitement d'images spécifiques. Les principaux objectifs et les développements réalisés se rapportent à: - la représentation algébrique des formalismes de polarisation en utilisant les quaternions : toute matrice de Mueller non dépolarisante peut être mise sous forme d'un quaternion complexe et l'action d'un système optique sur une onde monochromatique s'écrit comme le produit géométrique du quaternion correspondant à la matrice de Mueller par le multivecteur représentant le vecteur de Stokes. Cette utilisation de l'algèbre géométrique permet de définir formellement la notion de distance, de similitude et d'appartenance à une classe. - l'optimisation des polarimètres imageurs et le calcul de l'erreur sur les mesures : la démarche, basée sur l'utilisation du produit de Kronecker, prend en compte de façon conjointe les erreurs sytématiques et le bruit d'image et leur minimisation est obtenue dès l'étape de conception. Plusieurs fonctions de mérites sont introduites pour permettre la définition des caractéristiques du polarimètre optimal. - l'estimation et le filtrage du bruit des images polarimétriques : deux méthodes sont envisagées i) une nouvelle variante de la méthode du « scatter plot » combinée avec une vectorisation de l'image par un parcours de type Piano-Hilbert, ii) la méthode du masquage de données qui repose sur l'utilisation de la différence entre deux approximations de l'opérateur Laplacien. Les performances et les biais des deux estimateurs choisis sont étudiés statistiquement par la méthode du « Bootstrap ». - la classification et la prévisualisation couleur des images codées en polarisation : on propose une représentation colorée des images codées en polarisation, comme une aide à leur interprétation en fonction de leur contenu physique, qui utilise la décomposition polaire pour le cas de l'imagerie de Mueller et repose sur deux mappages entre la sphère de Poincaré et un espace de couleur paramétrique dans le cas de l'imagerie de Stokes. Le processus de segmentation est basé sur la famille des algorithmes des K-moyennes. Cette démarche est illustrée sur des images de Stokes et de Mueller de tissus biologiques.
APA, Harvard, Vancouver, ISO, and other styles
35

Ben, Arab Taher. "Contribution des familles exponentielles en traitement des images." Phd thesis, Université du Littoral Côte d'Opale, 2014. http://tel.archives-ouvertes.fr/tel-01019983.

Full text
Abstract:
Cette thèse est consacrée à l'évaluation des familles exponentielles pour les problèmes de la modélisation des bruits et de la segmentation des images couleurs. Dans un premier temps, nous avons développé une nouvelle caractérisation des familles exponentielles naturelles infiniment divisible basée sur la fonction trace de la matrice de variance covariance associée. Au niveau application, cette nouvelle caractérisation a permis de détecter la nature de la loi d'un bruit additif associé à un signal où à une image couleur. Dans un deuxième temps, nous avons proposé un nouveau modèle statistique paramétrique mulltivarié basé sur la loi de Riesz. La loi de ce nouveau modèle est appelée loi de la diagonale modifiée de Riesz. Ensuite, nous avons généralisé ce modèle au cas de mélange fini de lois. Enfin, nous avons introduit un algorithme de segmentation statistique d'image ouleur, à travers l'intégration de la méthode des centres mobiles (K-means) au niveau de l'initialisation pour une meilleure définition des classes de l'image et l'algorithme EM pour l'estimation des différents paramètres de chaque classe qui suit la loi de la diagonale modifiée de la loi de Riesz.
APA, Harvard, Vancouver, ISO, and other styles
36

Daniel, Tomasz. "Dispositif pour le traitement numérique des images magnétooptiques." Paris 11, 1985. http://www.theses.fr/1985PA112256.

Full text
Abstract:
Dans cette thèse nous présentons un dispositif électronique qui enlève le contraste d'origine non-magnétique des images magnéto-optiques. Simultanément, le bruit est réduit de telle façon que la visibilité limite lors des observations des domaines magnétiques est repoussée d'au moins un ordre de grandeur. Le signal vidéo, échantillonné à la fréquence de 10 MHz et codé sur 8 bits, est stocké dans une des trois 512x512x8 mémoires d'image. Un processeur arithmétique câblé calcule la différence et la somme entre les images, point par point, en raison de 10 Moctets/s. L'appareil est commandé par un microprocesseur 6809. Le mode principal d'opération est de comparer l'image d'un échantillon avec les domaines et l'image du même échantillon en état saturé. La différence est ensuite annulée pour obtenir une réduction de bruit nécessaire. En conclusion, des améliorations des images prises par l’effet Kerr longitudinal sont présentées
An electronic system is described which effectively substracts non magnetic contrast of magnetooptical images. At the same time noise is reduced to such a degree that the contrast visibility limit in domain observation is expanded by at least an order of magnitude. The incoming video signal, sampled at 10 Hz and coded at 8 bits is stored in one of the three 512x512x8 image memories. High speed arithmetic processor ads and substracts images, pixel by pixel, at 10 bytes/s. The device is controlled by a 6809 microprocessor. The m in mode of operation is to compare the image of a sample with magnetic domains with the image of the sample in saturated state. The difference is then cumulated to achieve necessary noise reduction. Improvements of longitudinal Kerr effect images are shown
APA, Harvard, Vancouver, ISO, and other styles
37

Bes, Marie-Thérèse. "Traitement automatique d'images scintigraphiques : application aux images cardiaques." Toulouse 3, 1987. http://www.theses.fr/1987TOU30054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Contassot-Vivier, Sylvain. "Calculs paralleles pour le traitement des images satellites." Lyon, École normale supérieure (sciences), 1998. http://www.theses.fr/1998ENSL0087.

Full text
Abstract:
L'etude realisee dans cette these met en relation deux domaines scientifiques a priori distincts, que sont la geologie etl'informatique. En effet, le contexte de ce travail est de concevoir une chaine complete de traitements paralleles sur les images satellites allant de la reconstruction tridimensionnelle a la visualisation des terrains ainsi reconstitues. Ce travail a fait l'objet d'une cooperation etroite entre personnes issues de formations aussi differentes que la geologie et l'informatique. Nous proposons d'une part, la parallelisation d'un algorithme de reconstruction tridimensionnelle de relief a partir d'un couple d'images satellite. Et d'autre part, un algorithme parallele de visualisation de terrains avec texture. Ces travaux font donc appel a plusieurs domaines de l'informatique tels que le parallelisme, la vision stereoscopique et la synthese d'images. Une etude methodologique plus generale sur les algorithmes de transformation geometrique des images est egalement presentee. Au niveau sequentiel, nous proposons pour chacun des algorithmes abordes et lorsque cela est pertinent, differentes optimisations originales permettant des ameliorations en termes de complexite et donc de temps de calculs, ainsi que des choix d'outils calculatoires pouvant ameliorer la qualite des resultats, point tres sensible dans un domaine comme la vision stereoscopique. Dans le cadre du parallelisme, nous nous focalisons sur les strategies de communications et d'equilibrage des charges pouvant etre mises en uvre pour tirer le meilleur parti des machines paralleles. En comparant nos problemes avec ceux deja traites dans la litterature, nous sommes arrives a la conclusion qu'un equilibrage des charges dirige par les donnees etait preferable a toute autre technique dans notre cas. De plus, que l'on se place dans la partie vision ou synthese, l'equilibrage des charges peut etre aborde exactement de la meme maniere. On peut donc appliquer la meme strategie sur ces differents algorithmes. Enfin, une etude theorique de la complexite de l'algorithme parallele de vision stereoscopique nous permet de deduire les points cles influencant les performances et donc d'estimer a priori le nombre de processeurs necessaires pour obtenir les meilleures performances absolues pour un ensemble connu de donnees. Des experimentations menees sur differentes machines paralleles, volvox, cray t3d ou cray t3e nous permettent de verifier le bon comportement de nos algorithmes paralleles et de confirmer leur efficacite.
APA, Harvard, Vancouver, ISO, and other styles
39

Horé, Alain. "Traitement des images bidimensionnelles à l'aide des FPGAs /." Thèse, Chicoutimi : Université du Québec à Chicoutimi, 2005. http://theses.uqac.ca.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Bes, Marie-Thérèse. "Traitement automatique d'images scintigraphiques application aux images cardiaques /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602964k.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Zampieri, Karine. "IMAGEB, un système de traitement d'images." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37610884n.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Vilcahuaman, Cajacuri Luis Alberto. "Early diagnostic of diabetic foot using thermal images." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-01022921.

Full text
Abstract:
The object of the thesis is to analyze the potential of thermography in the early diagnosis of type 2 diabetic foot. The main advantages of thermography are that it is simple to use, non-invasive, contactless, non-irradiant, and fast. A robust acquisition protocol is proposed, as well as a dedicated image processing algorithm. The algorithm includes a pre-processing step, plus a segmentation and a rigid registration procedures. Various parameters are assessed: the mean and standard deviation of right and left feet plantar surfaces temperaure, as well as the percentage of pixels such that the absolute point to point temperature difference between right and left feet is greater than 2.2°C. A percentage greater than 1% indicates significative hyperthermia regions. A transversal clinical study is conducted on a population of 85 persons of type 2 diabetic foot. They are classified in one of these three groups: Low risk, Medium risk, and High risk. For the Low risk group, the mean temperature is close to 32°C. For the medium one, it goes down to 31°C, and increases for the High risk group to a value of 32°C. In the early stage of diabetic foot, i.e. from the Low risk group to Medium risk group, the plantar foot surface temperature is lowered by 1°C: if this result is confirmed by other clinical tests, this information can be useful for the early diagnosis of diabetic foot. Finally, 9 images out of the 85 show hyperthermia, mainly in the heel or toes regions. This hyperthermia indication may be of a substantial assistance in the early prevention of foot ulcer and can help in avoiding subsequent foot amputation.
APA, Harvard, Vancouver, ISO, and other styles
43

Goudail, François. "Localisation d'objets dans des images fortement bruitées : une approche probabiliste paramétrique." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30013.

Full text
Abstract:
Cette these est consacree a l'amelioration des techniques de localisation et de poursuite d'objets de forme connue sur des sequences d'images. Notre but est d'obtenir des algorithmes qui soient plus efficaces que les filtres lineaires classiques tout en restant assez simples pour pouvoir fonctionner en temps reel. Pour cela, nous considerons des modeles parametriques d'images differents du modele classique de bruit gaussien, additif, stationnaire et ergodique. Nous determinons les processeurs de localisation optimaux au sens du maximum de vraisemblance (mv) associes a ces modeles. Nous montrons tout d'abord que le correlateur a transformee conjointe non-lineaire (nl-jtc), tres utilise en traitement optique de l'information, est superieur au filtres lineaires en presence d'un bruit non-ergodique. Nous introduisons ensuite un modele d'image parametrique (modele sir) qui permet de prendre en compte a la fois un bruit de fond non-recouvrant et une cible de luminance aleatoire. Nous determinons les processeurs de localisation optimaux dans le cadre de ce modele. Ils se revelent plus efficaces que les processeurs classiques sur des images realistes. Enfin, nous determinons un processeur utilisant de maniere optimale la continuite entre les trames successives d'une sequence d'images pour attenuer l'influence du bruit de fond. Tous les processeurs obtenus consistent en des pre-traitements de la scene, suivis de correlations et de post-traitements. Les correlations, qui sont les operations les plus lourdes en calcul, peuvent etre realisees par des correlateurs numeriques ou optiques
APA, Harvard, Vancouver, ISO, and other styles
44

Chevallier, Emmanuel. "Morphologie, Géométrie et Statistiques en imagerie non-standard." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0082/document.

Full text
Abstract:
Le traitement d'images numériques a suivi l'évolution de l'électronique et de l'informatique. Il est maintenant courant de manipuler des images à valeur non pas dans {0,1}, mais dans des variétés ou des distributions de probabilités. C'est le cas par exemple des images couleurs où de l'imagerie du tenseur de diffusion (DTI). Chaque type d'image possède ses propres structures algébriques, topologiques et géométriques. Ainsi, les techniques existantes de traitement d'image doivent être adaptés lorsqu'elles sont appliquées à de nouvelles modalités d'imagerie. Lorsque l'on manipule de nouveaux types d'espaces de valeurs, les précédents opérateurs peuvent rarement être utilisés tel quel. Même si les notions sous-jacentes ont encore un sens, un travail doit être mené afin de les exprimer dans le nouveau contexte. Cette thèse est composée de deux parties indépendantes. La première, « Morphologie mathématiques pour les images non standards », concerne l'extension de la morphologie mathématique à des cas particuliers où l'espace des valeurs de l'image ne possède pas de structure d'ordre canonique. Le chapitre 2 formalise et démontre le problème de l'irrégularité des ordres totaux dans les espaces métriques. Le résultat principal de ce chapitre montre qu'étant donné un ordre total dans un espace vectoriel multidimensionnel, il existe toujours des images à valeur dans cet espace tel que les dilatations et les érosions morphologiques soient irrégulières et incohérentes. Le chapitre 3 est une tentative d'extension de la morphologie mathématique aux images à valeur dans un ensemble de labels non ordonnés.La deuxième partie de la thèse, « Estimation de densités de probabilités dans les espaces de Riemann » concerne l'adaptation des techniques classiques d'estimation de densités non paramétriques à certaines variétés Riemanniennes. Le chapitre 5 est un travail sur les histogrammes d'images couleurs dans le cadre de métriques perceptuelles. L'idée principale de ce chapitre consiste à calculer les histogrammes suivant une approximation euclidienne local de la métrique perceptuelle, et non une approximation globale comme dans les espaces perceptuels standards. Le chapitre 6 est une étude sur l'estimation de densité lorsque les données sont des lois Gaussiennes. Différentes techniques y sont analysées. Le résultat principal est l'expression de noyaux pour la métrique de Wasserstein
Digital image processing has followed the evolution of electronic and computer science. It is now current to deal with images valued not in {0,1} or in gray-scale, but in manifolds or probability distributions. This is for instance the case for color images or in diffusion tensor imaging (DTI). Each kind of images has its own algebraic, topological and geometric properties. Thus, existing image processing techniques have to be adapted when applied to new imaging modalities. When dealing with new kind of value spaces, former operators can rarely be used as they are. Even if the underlying notion has still a meaning, a work must be carried out in order to express it in the new context.The thesis is composed of two independent parts. The first one, "Mathematical morphology on non-standard images", concerns the extension of mathematical morphology to specific cases where the value space of the image does not have a canonical order structure. Chapter 2 formalizes and demonstrates the irregularity issue of total orders in metric spaces. The main results states that for any total order in a multidimensional vector space, there are images for which the morphological dilations and erosions are irregular and inconsistent. Chapter 3 is an attempt to generalize morphology to images valued in a set of unordered labels.The second part "Probability density estimation on Riemannian spaces" concerns the adaptation of standard density estimation techniques to specific Riemannian manifolds. Chapter 5 is a work on color image histograms under perceptual metrics. The main idea of this chapter consists in computing histograms using local Euclidean approximations of the perceptual metric, and not a global Euclidean approximation as in standard perceptual color spaces. Chapter 6 addresses the problem of non parametric density estimation when data lay in spaces of Gaussian laws. Different techniques are studied, an expression of kernels is provided for the Wasserstein metric
APA, Harvard, Vancouver, ISO, and other styles
45

Chastel, Serge. "Contribution de la théorie des hypergraphes au traitement des images numériques." Saint-Etienne, 2001. http://www.theses.fr/2001STET4008.

Full text
Abstract:
Les récents développements en traitement d'image ont fait apparaître l'intérêt des formalisations discrètes de l'image numérique et de l'étude de celles-ci au moyen de la combinatoire. Dans ce mémoire, nous nous sommes intéressés à des modélisations de l'image numérique par le biais de la théorie des hypergraphes. Notre contribution est essentiellement axée sur la détermination de propriétés mathématiques que peuvent posséder de telles structures et d'analyser leur adéquation avec des problématiques de l'image. Dans un premier temps, nous étudions la modélisation par hypergraphes de voisinages des images numériques. Un outil de visualisation de telles structures est présenté. Reprenant les précédents travaux déjà menés sur le sujet, nous étudions le problème de la recherche exhaustive de cliques (sous-graphes complets maximaux au sens de l'inclusion) dans les graphes, et proposons un algorithme de description de cet ensemble. Nous établissons ensuite une définition formelle des zones de contours de régions dans l'image et un algorithme quadratique de détermination de celles-ci. Nous nous intéressons ensuite à une autre modélisation par hypergraphe qui s'affranchit de la contrainte spatiale des hypergraphes de voisinages d'image : les hypergraphes de polyominos d'image. Ceux-ci consistent en un recouvrement de l'image par des rectangles maximaux définis au sens d'un critère radiométrique. La correction d'une telle modélisation est illustrée par une définition formelle de la notion de bruit dans l'image numérique et est complétée par un algorithme de détection de celui-ci, par une série d'expérimentations et par une étude comparative avec d'autres algorithmes de détection. En définitive, ce travail porte sur la présentation et l'évaluation de formalisations mathématiques combinatoires de l'image numérique par hypergraphes et a pour but d'étudier si des propriétés caractéristiques de ces formalisations sont représentatives de problématiques de l'image numérique
Recent developments in image processing have shown the promises of discrete formalizations of the digital picture and their study from the point of view of combinatorics. In this document we focus on the modeling of the digital picture by the means of hypergraphs. . . . [etc. ]
APA, Harvard, Vancouver, ISO, and other styles
46

Le, hir Juliette. "Conception mixte d’un capteur d’images intelligent intégré à traitements locaux massivement parallèles." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC107/document.

Full text
Abstract:
Les capteurs intelligents permettentaux systèmes embarqués d’analyser leurenvironnement sans transmission de donnéesbrutes, consommatrice d’énergie. Ce mémoireprésente donc un travail sur un imageur intégrantdu traitement d’image. Deux figures de méritesont introduites pour classer l’état de l’art desimageurs intelligents en fonction de leurversatilité et de leur préservation de la surfacephotosensible. Cela met en évidence uncompromis que ce travail essaie d’améliorer enexplorant une approche par macropixels. Eneffet, en regroupant les éléments de calculs (PEs)pour plusieurs pixels, les traitements sont à lafois massivement parallèles et potentiellementplus versatiles à surface photosensible donnée.Une adaptation du filtrage spatial et du filtragetemporel en adéquation avec une architecture parmacropixels est proposée (sous-échantillonnagepar 3x3 pixels et par 2x2 pixels respectivement),et validée fonctionnellement. Une architectured’imageur en macropixels asymétriques est doncprésentée. Le PE conçu est un circuit analogiqueà capacités commutées, programmable par uncontrôle numérique extérieur à la matrice. Sondimensionnement est discuté pour descompromis entre surface et précision des calculs,avant d’être implémenté en calcul approximépour notre cas. La matrice proposée a été simuléeen vue extraite et présente des images de résultatsde détection de contours ou de différencetemporelle corrects, avec un facteur deremplissage de 28%
Smart sensors allow embeddedsystems for analysing their environment withoutany transmission of raw data, which consumes alot of power. This thesis presents an imagesensor integrating image processing tasks. Twofigures of merit are introduced in order toclassify the state of the art of smart imagersregarding their versatility and their preservationof photosensitive area. This shows a trade-offthat this work aims at improving by using amacropixel approach. By merging processingelements (PEs) between several pixels,processing tasks are both massively parallel andpotentially more versatile at givenphotosensitive area. An adaptation of spatial andtemporal filtering, matching such anarchitecture is proposed (downsampling by3x3 and 2x2 pixels respectively for eachprocessing task) and functionnally validated. Anarchitecture of asymmetric macropixels is thuspresented. The designed PE is an analogswitched capacitor circuit that is controlled byout-of-matrix digital electronics. The sizing ofthe PE is discussed over the trade-off betweenaccuracy and area, and implemented in anapproximate computing approach in our study.The proposed matrix of pixels and PEs issimulated in post-layout extracted views andshows good results on computed images of edgedetection or temporal difference, with a 28% fillfactor
APA, Harvard, Vancouver, ISO, and other styles
47

Capri, Arnaud. "Caractérisation des objets dans une image en vue d'une aide à l'interprétation et d'une compression adaptée au contenu : application aux images échographiques." Orléans, 2007. http://www.theses.fr/2007ORLE2020.

Full text
Abstract:
Cette thèse, réalisée dans le cadre d’une convention CIFRE avec la société ECA-Sinters, se situe dans la continuité de projets de robotique télé-opérée pour des applications médicales non-invasives réalisés au laboratoire de Vision et Robotique ; l’application médicale télé-opérée concerne ici la télé-échographie. Notre travail a porté plus précisément sur le traitement des images ultrasonores sur lesquelles se base l’expert médical pour le contrôle à distance du robot porteur de la sonde échographique positionné sur le patient. Une étude des méthodes actuelles de segmentation d’image ainsi que sur les méthodes permettant d’évaluer un résultat de segmentation, nous conforte dans l’idée d’une non universalité des méthodes de segmentation. La difficulté de partitionner une image ultrasonore en composantes illustre cette affirmation. Nous proposons donc, via l’utilisation combinée d’approches floue et fractale, une caractérisation des divers objets présents au sein de l’image sans réelle segmentation. De plus, le lien démontré entre ces deux approches nous permet de prendre en compte, dans le calcul de la complexité des divers objets, le bruit initialement présent au sein de l’image ultrasonore. Ces résultats obtenus d’un point de vue théorique sont alors appliqués à différents domaines tels que la segmentation ou la compression d’images.
APA, Harvard, Vancouver, ISO, and other styles
48

Puteaux, Pauline. "Analyse et traitement des images dans le domaine chiffré." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS119.

Full text
Abstract:
Durant cette dernière décennie, la sécurité des données multimédia, telles que les images, les vidéos et les données 3D, est devenue un problème majeur incontournable. Avec le développement d’Internet, de plus en plus d’images sont transmises sur les réseaux et stockées sur le cloud. Ces données visuelles sont généralement à caractère personnel ou peuvent avoir une valeur marchande. Ainsi, des outils informatiques permettant d’assurer leur sécurité ont été développés.Le but du chiffrement est de garantir la confidentialité visuelle des images en rendant aléatoire leur contenu. Par ailleurs, pendant la transmission ou l'archivage des images chiffrées, il est souvent nécessaire de les analyser ou de les traiter sans connaître leur contenu original, ni la clé secrète utilisée pendant la phase de chiffrement. Ce sujet de thèse propose de se pencher sur cette problématique. En effet, de nombreuses applications existent telles que le partage d’images secrètes, l'insertion de données cachées dans des images chiffrées, l’indexation et la recherche d’images dans des bases de données chiffrées, la recompression d'images crypto-compressées, ou encore la correction d’images chiffrées bruitées.Dans un premier axe de recherche, nous présentons tout d’abord une nouvelle méthode d’insertion de données cachées haute capacité dans le domaine chiffré. Dans la plupart des approches de l’état-de-l’art, les valeurs des bits de poids faible sont remplacées pour réaliser l’insertion d’un message secret. Nous prenons ces approches à contre-pied en proposant de prédire les bits de poids fort. Ainsi, une charge utile nettement supérieure est obtenue, tout en conservant une haute qualité de l’image reconstruite. Par la suite, nous montrons qu’il est en effet possible de traiter récursivement tous les plans binaires d’une image pour réaliser l’insertion de données cachées dans le domaine chiffré.Dans un second axe de recherche, nous expliquons comment exploiter des mesures statistiques (entropie de Shannon et réseau neuronal convolutif) dans des blocs de pixels de petite taille (i.e. avec peu d’échantillons) pour différencier un bloc en clair d’un bloc chiffré dans une image. Nous utilisons alors cette analyse dans une application à la correction d’images chiffrées bruitées.Enfin, le troisième axe de recherche développé dans ces travaux de thèse porte sur la recompression d’images crypto-compressées. Dans le domaine clair, les images JPEG peuvent être recompressées avant leur transmission sur des réseaux bas débit, mais l’opération est bien plus complexe dans le domaine chiffré. Nous proposons alors une méthode de recompression des images JPEG crypto-compressées directement dans le domaine chiffré et sans connaître la clé secrète, en s’appuyant sur un décalage binaire des coefficients réorganisés
During the last decade, the security of multimedia data, such as images, videos and 3D data, has become a major issue. With the development of the Internet, more and more images are transmitted over networks and stored in the cloud. This visual data is usually personal or may have a market value. Thus, computer tools have been developed to ensure their security.The purpose of encryption is to guarantee the visual confidentiality of images by making their content random. Moreover, during the transmission or archiving of encrypted images, it is often necessary to analyse or process them without knowing their original content or the secret key used during the encryption phase. This PhD thesis proposes to address this issue. Indeed, many applications exist such as secret images sharing, data hiding in encrypted images, images indexing and retrieval in encrypted databases, recompression of crypto-compressed images, or correction of noisy encrypted images.In a first line of research, we present a new method of high-capacity data hiding in encrypted images. In most state-of-the-art approaches, the values of the least significant bits are replaced to achieve the embedding of a secret message. We take the opposing view of these approaches by proposing to predict the most significant bits. Thus, a significantly higher payload is obtained, while maintaining a high quality of the reconstructed image. Subsequently, we showed that it was possible to recursively process all bit planes of an image to achieve data hiding in the encrypted domain.In a second line of research, we explain how to exploit statistical measures (Shannon entropy and convolutional neural network) in small pixel blocks (i.e. with few samples) to discriminate a clear pixel block from an encrypted pixel block in an image. We then use this analysis in an application to correct noisy encrypted images.Finally, the third line of research developed in this thesis concerns the recompression of crypto-compressed images. In the clear domain, JPEG images can be recompressed before transmission over low-speed networks, but the operation is much more complex in the encrypted domain. We then proposed a method for recompressing crypto-compressed JPEG images directly in the encrypted domain and without knowing the secret key, using a bit shift of the reorganized coefficients
APA, Harvard, Vancouver, ISO, and other styles
49

Aziz, Fatima. "Approche géométrique couleur pour le traitement des images catadioptriques." Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0080/document.

Full text
Abstract:
Ce manuscrit étudie les images omnidirectionnelles catadioptriques couleur en tant que variétés Riemanniennes. Cette représentation géométrique ouvre des pistes intéressantes pour résoudre les problèmes liés aux distorsions introduites par le système catadioptrique dans le cadre de la perception couleur des systèmes autonomes. Notre travail démarre avec un état de l’art sur la vision omnidirectionnelle, les différents dispositifs et modèles de projection géométriques. Ensuite, nous présentons les notions de base de la géométrie Riemannienne et son utilisation en traitement d’images. Ceci nous amène à introduire les opérateurs différentiels sur les variétés Riemanniennes, qui nous seront utiles dans cette étude. Nous développons alors une méthode de construction d’un tenseur métrique hybride adapté aux images catadioptriques couleur. Ce tenseur a la double caractéristique, de dépendre de la position géométrique des points dans l’image, et de leurs coordonnées photométriques également. L’exploitation du tenseur métrique proposé pour différents traitements des images catadioptriques, est une partie importante dans cette thèse. En effet, on constate que la fonction Gaussienne est au cœur de plusieurs filtres et opérateurs pour diverses applications comme le débruitage, ou bien l’extraction des caractéristiques bas niveau à partir de la représentation dans l’espace-échelle Gaussien. On construit ainsi un nouveau noyau Gaussien dépendant du tenseur métrique Riemannien. Il présente l’avantage d’être applicable directement sur le plan image catadioptrique, également, variable dans l’espace et dépendant de l’information image locale. Dans la dernière partie de cette thèse, nous discutons des applications robotiques de la métrique hybride, en particulier, la détection de l’espace libre navigable pour un robot mobile, et nous développons une méthode de planification de trajectoires optimal
This manuscript investigates omnidirectional catadioptric color images as Riemannian manifolds. This geometric representation offers insights into the resolution of problems related to the distortions introduced by the catadioptric system in the context of the color perception of autonomous systems. The report starts with an overview of the omnidirectional vision, the different used systems, and the geometric projection models. Then, we present the basic notions and tools of Riemannian geometry and its use in the image processing domain. This leads us to introduce some useful differential operators on Riemannian manifolds. We develop a method of constructing a hybrid metric tensor adapted to color catadioptric images. This tensor has the dual characteristic of depending on the geometric position of the image points and their photometric coordinates as well.In this work, we mostly deal with the exploitation of the previously constructed hybrid metric tensor in the catadioptric image processing. Indeed, it is recognized that the Gaussian function is at the core of several filters and operators for various applications, such as noise reduction, or the extraction of low-level characteristics from the Gaussian space- scale representation. We thus build a new Gaussian kernel dependent on the Riemannian metric tensor. It has the advantage of being applicable directly on the catadioptric image plane, also, variable in space and depending on the local image information. As a final part in this thesis, we discuss some possible robotic applications of the hybrid metric tensor. We propose to define the free space and distance transforms in the omni- image, then to extract geodesic medial axis. The latter is a relevant topological representation for autonomous navigation, that we use to define an optimal trajectory planning method
APA, Harvard, Vancouver, ISO, and other styles
50

Piedpremier, Julien. "Les grandes images." Paris 8, 2005. http://www.theses.fr/2005PA082545.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography