Dissertations / Theses on the topic 'Rehaussement des images'

To see the other types of publications on this topic, follow the link: Rehaussement des images.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 17 dissertations / theses for your research on the topic 'Rehaussement des images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cherifi, Daikha. "Amélioration et évaluation de la qualité des images." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132053.

Full text
Abstract:
Dans le cadre de cette thèse nous nous sommes intéressés à l’amélioration de la qualité visuelle des images, en rehaussant le contraste des images. Nous avons proposé, tout d’abord, une méthode de rehaussement simple et efficace s’inspirant du système visuel humain. Cette méthode est efficace,quand elle est appliquée aux images naturelles en couleur, ou monochromes. La méthode proposée est ensuite améliorée pour pouvoir rehausser d’autre type d’image comme les images médicale, telles que les images de rétine et l’endoscopie. Par la suite, nous nous sommes aussi intéressés aux rehaussements des images médicales et en particulier aux images de mammographie et nous avons donc proposé une méthode de rehaussement de contraste qui leur est spécifiquement dédiée. Au final,nous nous sommes intéressés à l’évaluation des méthodes de rehaussement proposées et aux différentes approches existantes dans la littérature. La méthode d’évaluation proposée s’appuie sur l’analyse radiale et angulaire du spectre d’énergie de Fourier. La validation de notre méthode de rehaussement de contraste a été faite en utilisant des échantillons d’images de 2 bases et en utilisant un test subjectif pour la comparer à d’autres méthodes de rehaussement. La note subjective finale de MOS, obtenue par la moyenne des notes des observateurs, montre la fiabilité de notre méthode de rehaussement de contraste et son intérêt par comparaison aux autres méthodes classiques
The aim of this thesis is to propose new methods for image enhancement based on oriented and multi-scale transforms using some perceptual criteria. The first part of the thesis is devoted to the development of a simple and efficient contrast enhancement method inspired from the human visual system. This method is evaluated on a set of natural color and monochrome images. The obtained results are evaluated subjectively and by using objective measures based on energy spectrum analysis and perceptual criteria. The enhancement technique is also extended to some medical images, such as mammography and endoscopy images. A special contrast enhancement method adapted to mammography is then proposed. It is based on a segmentation process using a priori information on the mammography images. The last part of the thesis is devoted to image enhancement evaluation. A critical literature survey of image enhancement evaluation methods is provided. The evaluation method proposed in this thesis is based on the radial and angular analysis of the Fourier powerspectrum. Another perceptual approach is proposed to evaluate the output. This method is based on the analysis of the visibility map computed by using a pyramidal contrast. The evaluation is performed on some samples taken from two databases. Both subjective and objective evaluations demonstrate the efficiency of the proposed image enhancement methods
APA, Harvard, Vancouver, ISO, and other styles
2

Thaibaoui, Abdelhakim. "Segmentation floue d'images fondee sur une methode optimale de rehaussement de contraste : application a la detection des drusen sur des images d'angiographie retinienne." Paris 12, 1999. http://www.theses.fr/1999PA120062.

Full text
Abstract:
Pour segmenter les images d'angiographie retinienne, notamment les images de drusen (taches jaunatres hyperfluorescentes), plusieurs methodes ont ete etudiees et proposees. Ces images presentent des difficultes d'analyse : du bruit, un contraste faible, parfois un nombre insuffisant de niveaux de gris et souvent une heterogeneite de certaines regions de l'image. Pour resoudre de tels problemes, nous proposons une methode de segmentation qui procede en deux etapes. La premiere etape concerne le rehaussement du contraste grace a un partitionnement optimal de l'image en trois classes : la premiere classe correspond aux drusen, qui apparaissent en clair, la deuxieme classe au fond de l'image et enfin la troisieme, nommee classe intermediaire, regroupant tous les pixels ambigus. Cette derniere classe est definie comme une region floue. La deuxieme etape de la methode de segmentation fait appel a la logique floue, qui est appliquee a la seule region floue. Elle consiste a attribuer a chaque niveau de gris un degre d'appartenance. Ensuite, l'application d'une methode iterative tenant compte du contexte spatial des pixels permet de decider de l'appartenance definitive d'un pixel a la classe drusen ou a la classe fond. Des etudes quantitatives sur des images de drusen de plusieurs patients ont permis d'effectuer deux types de comparaison : l'une avec une autre methode de segmentation, l'autre avec la detection manuelle faite par un praticien. La methode de segmentation proposee permet de quantifier de maniere objective les drusen au cours du temps ; les resultats obtenus confirment les donnees quantitatives connues en angiographie.
APA, Harvard, Vancouver, ISO, and other styles
3

Irrera, Paolo. "Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images." Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0031/document.

Full text
Abstract:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO, and other styles
4

Irrera, Paolo. "Traitement d'images de radiographie à faible dose : Débruitage et rehaussement de contraste conjoints et détection automatique de points de repère anatomiques pour l'estimation de la qualité des images." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0031.

Full text
Abstract:
Nos travaux portent sur la réduction de la dose de rayonnement lors d'examens réalisés avec le Système de radiologie EOS. Deux approches complémentaires sont étudiées. Dans un premier temps, nous proposons une méthode de débruitage et de rehaussement de contraste conjoints pour optimiser le compromis entre la qualité des images et la dose de rayons X. Nous étendons le filtre à moyennes non locales pour restaurer les images EOS. Nous étudions ensuite comment combiner ce filtre à une méthode de rehaussement de contraste multi-échelles. La qualité des images cliniques est optimisée grâce à des fonctions limitant l'augmentation du bruit selon la quantité d’information locale redondante captée par le filtre. Dans un deuxième temps, nous estimons des indices d’exposition (EI) sur les images EOS afin de donner aux utilisateurs un retour immédiat sur la qualité de l'image acquise. Nous proposons ainsi une méthode reposant sur la détection de points de repère qui, grâce à l'exploitation de la redondance de mesures locales, est plus robuste à la présence de données aberrantes que les méthodes existantes. En conclusion, la méthode de débruitage et de rehaussement de contraste conjoints donne des meilleurs résultats que ceux obtenus par un algorithme exploité en routine clinique. La qualité des images EOS peut être quantifiée de manière robuste par des indices calculés automatiquement. Étant donnée la cohérence des mesures sur des images de pré-affichage, ces indices pourraient être utilisés en entrée d'un système de gestion automatique des expositions
We aim at reducing the ALARA (As Low As Reasonably Achievable) dose limits for images acquired with EOS full-body system by means of image processing techniques. Two complementary approaches are studied. First, we define a post-processing method that optimizes the trade-off between acquired image quality and X-ray dose. The Non-Local means filter is extended to restore EOS images. We then study how to combine it with a multi-scale contrast enhancement technique. The image quality for the diagnosis is optimized by defining non-parametric noise containment maps that limit the increase of noise depending on the amount of local redundant information captured by the filter. Secondly, we estimate exposure index (EI) values on EOS images which give an immediate feedback on image quality to help radiographers to verify the correct exposure level of the X-ray examination. We propose a landmark detection based approach that is more robust to potential outliers than existing methods as it exploits the redundancy of local estimates. Finally, the proposed joint denoising and contrast enhancement technique significantly increases the image quality with respect to an algorithm used in clinical routine. Robust image quality indicators can be automatically associated with clinical EOS images. Given the consistency of the measures assessed on preview images, these indices could be used to drive an exposure management system in charge of defining the optimal radiation exposure
APA, Harvard, Vancouver, ISO, and other styles
5

Wang, Qian. "Processing and exploration of CT images for the assessment of aortic valve bioprostheses." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00925743.

Full text
Abstract:
The aim of the study was to assess the feasibility of CT based 3D analysis of degenerated aortic bioprostheses to make easier their morphological assessment. This could be helpful during regular follow-up and for case selection, improved planning and mapping of valve-in-valve procedure. The challenge was represented by leaflets enhancement because of highly noised CT images. Contrast-enhanced ECG-gated CT scan was performed in patients with degenerated aortic bioprostheses before reoperation (in-vivo images). Different methods for noise reduction were tested and proposed. 3D reconstruction of bioprostheses components was achieved using stick based region segmentation methods. After reoperation, segmentation methods were applied to CT images of the explanted prostheses (exvivo images). Noise reduction obtained by improved stick filter showed best results in terms of signal to noise ratio comparing to anisotropic diffusion filters. All segmentation methods applied to the best phase of in-vivo images allowed 3D bioprosthetic leaflets reconstruction. Explanted bioprostheses CT images were also processed and used as reference. Qualitative analysis revealed a good concordance between the in-vivo images and the bioprostheses alterations. Results from different methods were compared by means of volumetric criteria and discussed. A first approach for spatiotemporal visualization of 3D+T images of valve bioprosthesis has been proposed. Volume rendering and motion compensation techniques were applied to visualize different phases of CT data. Native valve was also considered. ECG-gated CT images of aortic bioprostheses need a preprocessing to reduce noise and artifacts in order to enhance prosthetic leaflets. Stick based methods seems to provide an interesting approach for the morphological characterization of degenerated bioprostheses.
APA, Harvard, Vancouver, ISO, and other styles
6

Goswami, Abhishek. "Content-aware HDR tone mapping algorithms." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG013.

Full text
Abstract:
Le rapport entre l'intensité de luminance la plus lumineuse et la plus sombre dans les images à plage dynamique élevée (High Dynamic Range-HDR) est supérieur à la capacité de rendu du support de sortie. Les opérateurs de mappage de tonalités (Tone mapping operators - TMOs) compressent l'image HDR tout en préservant les indices perceptuels, modifiant ainsi la qualité esthétique subjective. Les techniques dans le domaine de la peinture ainsi que les techniques de correction manuelle de l'exposition en photographie ont inspiré de nombreuses recherches sur les TMOs. Cependant, contrairement au processus de retouche manuel basé sur le contenu sémantique de l'image, les TMOs dans la littérature se sont principalement appuyés sur des règles photographiques ou des principes d'adaptation de la vision humaine pour obtenir la 'meilleure' qualité esthétique, ce qui est un problème mal posé en raison de sa subjectivité. Notre travail reformule les défis du mappage des tonalités en se mettant dans la peau d'un photographe, en suivant les principes photographiques, les statistiques d'images et leur recette de retouche locale pour réaliser les ajustements de tonalités. Dans cette thèse, nous présentons deux TMO sémantiques : un SemanticTMO traditionnel et un GSemTMO basé sur l'apprentissage profond. Nos nouveaux TMO utilisent explicitement des informations sémantiques dans le pipeline de mappage de tonalités. Notre nouveau G-SemTMO est le premier exemple de réseaux convolutifs sur les graphes (Graph Convolutional Networks - GCN) utilisé pour l'amélioration esthétique de l'image. Nous montrons que l'apprentissage basé sur des graphes peut tirer parti de l'agencement spatial de segments sémantiques similaire au masques locaux fabriqués par des experts. Il crée une compréhension de la scène basée sur les statistiques d'image spécifiques à la sémantique et prédit un mappage dynamique et local des tonalités. En comparant nos résultats aux TMO traditionnels et modernes basés sur l'apprentissage profond, nous montrons que G-SemTMO peut imiter les recettes d'un expert et mieux se rapprocher des styles esthétiques de référence lorsque comparé aux méthodes de pointe
The ratio between the brightest and the darkest luminance intensity in High Dynamic Range (HDR) images is larger than the rendering capability of the output media. Tone mapping operators (TMOs) compress the HDR image while preserving the perceptual cues thereby modifying the subjective aesthetic quality. Age old painting and photography techniques of manual exposure correction has inspired a lot of research for TMOs. However, unlike the manual retouching process based on semantic content of the image, TMOs in literature have mostly relied upon photographic rules or adaptation principles of human vision to aim for the 'best' aesthetic quality which is ill-posed due to its subjectivity. Our work reformulates the challenges of tone mapping by stepping into the shoes of a photographer, following the photographic principles, image statistics and their local retouching recipe to achieve the tonal adjustments. In this thesis, we present two semantic aware TMOs – a traditional SemanticTMO and a deep learning-based GSemTMO. Our novel TMOs explicitly use semantic information in the tone mapping pipeline. Our novel GSemTMO is the first instance of graph convolutional networks (GCN) being used for aesthetic image enhancement. We show that graph-based learning can leverage the spatial arrangement of semantic segments like the local masks made by experts. It creates a scene understanding based on the semantic specific image statistics a predicts a dynamic local tone mapping. Comparing our results to traditional and modern deep learning-based TMOs, we show that G-SemTMO can emulate an expert’s recipe and reach closer to reference aesthetic styles than the state-of-the-art methods
APA, Harvard, Vancouver, ISO, and other styles
7

Ludusan, Cosmin. "De la restauration d'image au rehaussement : formalisme EDP pour la fusion d'images bruitées." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14400/document.

Full text
Abstract:
Cette thèse aborde les principaux aspects applicatifs en matière de restauration et amélioration d'images. A travers une approche progressive, deux nouveaux paradigmes sont introduits : la mise en place d'une déconvolution et d'un débruitage simultanés avec une amélioration de cohérence, et la fusion avec débruitage. Ces paradigmes sont définis dans un cadre théorique d'approches EDP - variationnelles. Le premier paradigme représente une étape intermédiaire dans la validation et l'analyse du concept de restauration et d'amélioration combinées, tandis que la deuxième proposition traitant du modèle conjoint fusion-débruitage illustre les avantages de l'utilisation d'une approche parallèle en traitement d'images, par opposition aux approches séquentielles. Ces deux propositions sont théoriquement et expérimentalement formalisées, analysées et comparées avec les approches les plus classiques, démontrant ainsi leur validité et soulignant leurs caractéristiques et avantages
This thesis addresses key issues of current image restoration and enhancement methodology, and through a progressive approach introduces two new image processing paradigms, i.e., concurrent image deblurring and denoising with coherence enhancement, and joint image fusion and denoising, defined within a Partial Differential Equation -variational theoretical setting.The first image processing paradigm represents an intermediary step in validating and testing the concept of compound image restoration and enhancement, while the second proposition, i.e., the joint fusion-denoising model fully illustrates the advantages of using concurrent image processing as opposed to sequential approaches.Both propositions are theoretically formalized and experimentally analyzed and compared with the similar existing methodology, proving thus their validity and emphasizing their characteristics and advantages when considered an alternative to a sequential image processing chain
APA, Harvard, Vancouver, ISO, and other styles
8

Hessel, Charles. "La décomposition automatique d'une image en base et détail : Application au rehaussement de contraste." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN017/document.

Full text
Abstract:
Dans cette thèse CIFRE en collaboration entre le Centre de Mathématiques et de leurs Applications, École Normale Supérieure de Cachan et l’entreprise DxO, nous abordons le problème de la décomposition additive d’une image en base et détail. Une telle décomposition est un outil fondamental du traitement d’image. Pour une application à la photographie professionnelle dans le logiciel DxO Photolab, il est nécessaire que la décomposition soit exempt d’artefact. Par exemple, dans le contexte de l’amélioration de contraste, où la base est réduite et le détail augmenté, le moindre artefact devient fortement visible. Les distorsions de l’image ainsi introduites sont inacceptables du point de vue d’un photographe.L’objectif de cette thèse est de trouver et d’étudier les filtres les plus adaptés pour effectuer cette tâche, d’améliorer les meilleurs et d’en définir de nouveaux. Cela demande une mesure rigoureuse de la qualité de la décomposition en base plus détail. Nous examinons deux artefact classiques (halo et staircasing) et en découvrons trois autres types tout autant cruciaux : les halos de contraste, le cloisonnement et les halos sombres. Cela nous conduit à construire cinq mire adaptées pour mesurer ces artefacts. Nous finissons par classer les filtres optimaux selon ces mesures, et arrivons à une décision claire sur les meilleurs filtres. Deux filtres sortent du rang, dont un proposé dans cette thèse
In this CIFRE thesis, a collaboration between the Center of Mathematics and their Applications, École Normale Supérieure de Cachan and the company DxO, we tackle the problem of the additive decomposition of an image into base and detail. Such a decomposition is a fundamental tool in image processing. For applications to professional photo editing in DxO Photolab, a core requirement is the absence of artifacts. For instance, in the context of contrast enhancement, in which the base is reduced and the detail increased, minor artifacts becomes highly visible. The distortions thus introduced are unacceptable from the point of view of a photographer.The objective of this thesis is to single out and study the most suitable filters to perform this task, to improve the best ones and to define new ones. This requires a rigorous measure of the quality of the base plus detail decomposition. We examine two classic artifacts (halo and staircasing) and discover three more sorts that are equally crucial: contrast halo, compartmentalization, and the dark halo. This leads us to construct five adapted patterns to measure these artifacts. We end up ranking the optimal filters based on these measurements, and arrive at a clear decision about the best filters. Two filters stand out, including one we propose
APA, Harvard, Vancouver, ISO, and other styles
9

Lavialle, Olivier. "Diffusion et fusion directionnelles pour le lissage et le rehaussement de structures fortement orientées." Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00181793.

Full text
Abstract:
Les travaux que je présente ici concernent la dernière phase de mon parcours scientifique et en particulier les six dernières années, période au cours de laquelle une grande partie de mon activité de recherche a été dédiée à l'utilisation des Equations aux Dérivées Partielles pour le filtrage et le rehaussement d'images . Plus particulièrement, en nous intéressant à la classe des images texturées (2D et 3D), nous nous plaçons au cœur des thématiques académiques du Groupe Signal mais nous traitons également une problématique qui recouvre des domaines applicatifs principaux du Groupe Signal de l'UMR IMS : l'imagerie sismique et les matériaux composites.

La présentation est organisée en trois chapitres :

Dans le premier chapitre, je présente des méthodes non linéaires et adaptatives qui conduisent à de faibles modifications topologiques du signal utile. L'amélioration des images est obtenue par des approches originales permettant d'accentuer de manière uniforme et indépendante les variations locales de contraste et les structures unidimensionnelles avec ou sans rehaussement de contours. Nous présenterons en particulier deux types d'approches, l'une scalaire et l'autre tensorielle.
Ces travaux ont été initiés lors de la thèse de Romulus Terebes. Ils ont fait l'objet de deux publications en revue et de neuf communications.

Dans le deuxième chapitre, nous adaptons ces méthodes aux spécificités de l'imagerie sismique en rapportant à la fois les travaux développés dans le cadre des thèses de Régis Dargent et de Sorin Pop. Outre l'extension au cas 3D, la problématique abordée a conduit à développer des approches structuralistes qui prennent en compte certaines informations a priori telles que la géométrie des failles. Là encore, nous présentons deux approches : la première relève tout autant du filtrage adaptatif que de la diffusion anisotrope, la seconde étant totalement inspirée d'une approche tensorielle.
Les travaux développés autour de la diffusion directionnelle pour la sismique ont fait l'objet de deux publications et de quatre communications.

Enfin, la troisième partie présente une extension originale des EDP : dans le cadre des travaux de thèse de Sorin Pop, nous proposons l'utilisation d'une formulation à base d'Equations aux Dérivées Partielles pour mener conjointement une procédure de fusion d'image et une procédure de diffusion. Cette approche permet, à partir de plusieurs sources bruitées, l'obtention d'une sortie fusionnée et lissée. Ces travaux, qui sont encore à l'heure actuelle en cours de développement concernent à la fois des applications en fusion d'images rencontrées classiquement dans la littérature mais également une application 3D très particulière et assez nouvelle : la sismique azimutale. Nous en développerons les grands principes.
En 2007, ces travaux ont fait l'objet d'une communication dans 3 conférences internationales, d'un article accepté ; un article est en préparation.
APA, Harvard, Vancouver, ISO, and other styles
10

Li, Gengxiang. "Rehaussement et détection des attributs sismiques 3D par techniques avancées d'analyse d'images." Phd thesis, Université Michel de Montaigne - Bordeaux III, 2012. http://tel.archives-ouvertes.fr/tel-00731886.

Full text
Abstract:
Les Moments ont été largement utilisés dans la reconnaissance de formes et dans le traitement d'image. Dans cette thèse, nous concentrons notre attention sur les 3D moments orthogonaux de Gauss-Hermite, les moments invariants 2D et 3D de Gauss-Hermite, l'algorithme rapide de l'attribut de cohérence et les applications de l'interprétation sismique en utilisant la méthode des moments.Nous étudions les méthodes de suivi automatique d'horizon sismique à partir de moments de Gauss-Hermite en cas de 1D et de 3D. Nous introduisons une approche basée sur une étude multi-échelle des moments invariants. Les résultats expérimentaux montrent que la méthode des moments 3D de Gauss-Hermite est plus performante que les autres algorithmes populaires.Nous avons également abordé l'analyse des faciès sismiques basée sur les caractéristiques du vecteur à partir des moments 3D de Gauss -Hermite, et la méthode de Cartes Auto-organisatrices avec techniques de visualisation de données. L'excellent résultat de l'analyse des faciès montre que l'environnement intégré donne une meilleure performance dans l'interprétation de la structure des clusters.Enfin, nous introduisons le traitement parallèle et la visualisation de volume. En profitant des nouvelles performances par les technologies multi-threading et multi-cœurs dans le traitement et l'interprétation de données sismiques, nous calculons efficacement des attributs sismiques et nous suivons l'horizon. Nous discutons également l'algorithme de rendu de volume basé sur le moteur Open-Scene-Graph qui permet de mieux comprendre la structure de données sismiques.
APA, Harvard, Vancouver, ISO, and other styles
11

Madi, Abdeldjalil. "Contrôle automatique des conditions d'affichage d'une image par un projecteur." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6592.

Full text
Abstract:
L'utilisation d'un projecteur dans différentes applications et environnements soulève la nécessité d'adapter et de contrôler l'image affichée en fonction des conditions d'affichage. L'image affichée par exemple dans un environnement éclairé peut apparaître avec des couleurs saturées et un contraste atténué. De même, son apparence peut être affectée par la réflectance et la géométrie de l'écran sur lequel l'image est projetée. Dans ce mémoire, nous proposons une approche pour contrôler l'apparence de l'image affichée par la modélisation des différents facteurs affectants son affichage. Cette approche est basée sur le modèle de formation de l'image perçue et la constance de couleur entre les images observées. L'approche proposée unifie la compensation des effets de la lumière ambiante et de la réflectance de l'écran. Nous argumentons que le modèle proposé est plus général que certains modèles de compensation utilisés pour la constance de couleurs. L'approche proposée estime l'illuminant de l'environnement d'affichage et l'illuminant cible, la réflectance de l'écran utilisé ainsi que la réflectance de l'écran cible. Une opération complémentaire pour la compensation de contraste est dérivée de la loi de Weber. Cette compensation permet d'adapter le contraste de l'image affichée conformément à l'intensité de la lumière ambiante. L'approche proposée est vérifiée expérimentalement dans des environnements éclairés et en utilisant des écrans non blancs. Elle permet de camoufler l'effet de l'écran utilisé dans l'affichage et de simuler les effets d'autres écrans cibles. Notre approche peut être utile dans certains domaines tels que le camouflage et la simulation pour des applications d'art visuel et performatif.
APA, Harvard, Vancouver, ISO, and other styles
12

Bismuth, Vincent. "Image processing algorithms for the visualization of interventional devices in X-ray fluoroscopy." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1062/document.

Full text
Abstract:
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalité dans le monde. Lors d'une procédure de pose de stent, le médecin insère des outils chirurgicaux dans le réseau vasculaire du patient. La progression de ces outils a l’intérieur du corps est suivie en temps réel sous uroscopie par rayons X. Trois outils, en particulier, jouent un rôle crucial dans la procédure : le guide, le ballon d'angioplastie et le stent. Le guide apparaît dans les images sous la forme d'une structure curviligne ne. Le ballon, monte sur le guide, est équipé de deux marqueurs radio-opaques à ses extrémités. Le stent est un maillage métallique qui se projette en une forme complexe dans les images uroscopiques. Le stent, dont le bon déploiement est essentiel au succès du geste médical, est souvent très difficilement visible dans les images. Les travaux présentés dans cette thèse poursuivent un double objectif. Il s'agit d'une part, de concevoir, d’étudier et de valider des techniques de traitement d'image visant à améliorer la visualisation des stents. D'autre part, nous étudions la traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous présentons des algorithmes de traitement d'image dédiés a la visualisation 2D et3D des stents. Nous sommes amenés, dans ce but, à détecter, suivre et recaler, de manière complètement automatique, les outils nécessaires a la pose de stent que sont le guide et le ballon. Le stent étant a peine visible dans les images, nous ne cherchons pas à le localiser directement à l'aide de techniques de traitement d'images. La position et le mouvement du stent sont déterminés par nos algorithmes […]. Nous avons évalué la performance des ces outils pour la visualisation des stents en 2D, sur une large base de près de 200 cas cliniques. Il en ressort que notre méthode surpasse les méthodes utilisées jusqu'ici sur le plan de la qualité image. La validation exhaustive que nous avons menée, confirme que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en résulte est désormais installé sur un grand nombre de sites cliniques, ou il est régulièrement utilisé. La méthode de visualisation 3D des stents que nous proposons utilise les marqueurs pour effectuer une reconstruction tomographique compensée en mouvement. Nous exposons des résultats préliminaires sur une base de 22 cas cliniques. Il semble que notre méthode surpasse les méthodes précédemment employées aussi bien du point de vue de la qualité d’image que de l'automatisation. Les méthodes de visualisation des stents que nous proposons s’appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d’unir dans un même cadre différents concepts pré-existants. De plus, il permet de contrôler la régularité et la longueur des structures à traiter avec une paramétrisation simple et intuitive. Avant de tirer pleinement parti des performances du PPI nous proposons un schéma algorithmique efficace pour le calculer. Nous illustrons ces utilisation pour la segmentation automatique de guide où il surpasse les techniques existantes
Stent implantation is the most common treatment of coronary heart disease, one of the major causes of death worldwide. During a stenting procedure, the clinician inserts interventional devices inside the patient's vasculature. The navigation of the devices inside the patient's anatomy is monitored in real-time, under X-ray fluoroscopy. Three specific interventional devices play a key role in this procedure: the guide-wire, the angioplasty balloon and the stent. The guide-wire appears in the images as a thin curvilinear structure. The angioplasty balloon, that has two characteristic markerballs at its extremities, is mounted on the guide-wire. The stent is a 3D metallic mesh, whose appearance is complex in the fluoroscopic images. Stents are barely visible, but the proper assessment of their deployment is key to the procedure. The objective of the work presented in this thesis is twofold. On the first hand, we aim at designing, studying and validating image processing techniques that improve the visualization of stents. On the second hand, we study the processing of curvilinear structures (like guide-wires) for which we propose a new image processing technique. We present algorithms dedicated to the 2D and 3D visualization of stents. Since the stent is hardly visible, we do not intend to directly locate it by image processing means in the images. The position and motion of the stent are inferred from the location of two landmarks: the angioplasty balloon and of the guide-wire, which have characteristic shapes. To this aim, we perform automated detection, tracking and registration of these landmarks. The cornerstone of our 2D stent visualization enhancement technique is the use of the landmarks to perform motion compensated noise reduction. We evaluated the performance of this technique for 2D stent visualization over a large database of clinical data (nearly 200 cases). The results demonstrate that our method outperforms previous state of the art techniques in terms of image quality. A comprehensive validation confirmed that we reached the level of performance required for the commercial introduction of our algorithm. It is currently deployed in a large number of clinical sites worldwide. The 3D stent visualization that we propose, uses the landmarks to achieve motion compensated tomographic reconstruction. We show preliminary results over 22 clinical cases. Our method seems to outperform previous state of the art techniques both in terms of automation and image quality. The previous stent visualization methods involve the segmentation of the part of the guide-wire extending through the stent. We propose a generic tool to process such curvilinear structures that we call the Polygonal Path Image (PPI). The PPI relies on the concept of locally optimal paths. One of its main advantages is that it unifies the concepts of several previous state of the art techniques in a single formalism. Moreover the PPI enables to control the smoothness and the length of the structures to segment. Its parametrization is simple and intuitive. In order to fully benefit from the PPI, we propose an efficient scheme to compute it. We demonstrate its applicability for the task of automated guide-wire segmentation, for which it outperforms previous state of the art techniques
APA, Harvard, Vancouver, ISO, and other styles
13

Louis, Jean-Sébastien. "Développements en IRM quantitative de perfusion pour le diagnostic de fibrose myocardique." Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0061.

Full text
Abstract:
L’insuffisance cardiaque est un enjeu de santé publique majeur dans les pays occidentaux. Ce syndrome complexe peut être la résultante de pathologies sous-jacentes du myocarde comme le dépôt de fibrose, diffusant sur l’ensemble du tissu myocardique. L’Imagerie par Résonance Magnétique (IRM) est la modalité de référence dans l’exploration clinique des tissus mous du tissu myocardique. Plusieurs biomarqueurs d’IRM comme le temps de relaxation T1 ou encore la quantification du volume extracellulaire (ECV) ont révélé leur utilité clinique dans le diagnostic de fibroses localisées. L’IRM avec injection de produit de contraste a également montré son fort pouvoir diagnostic dans la détection de lésions post-infarctus. Le suivi dynamique de rehaussement de contraste (DCE) semble être une technique prometteuse dans la différenciation de zones dont la perfusion/perméabilité tissulaire est altérée par un dépôt fibrotique. Dans ces travaux de thèse, nous sommes partis de l’hypothèse que la quantification de la perméabilité cardiaque et l’extraction du volume extracellulaire extravasculaire Ve, permettraient la détection de lésions diffuses avec comme corolaire un raccourcissement de la durée totale d’examen pour l’estimation de l’ECV. Ce mémoire présente dans un premier temps, les travaux méthodologiques mis en œuvre pour permettre l’analyse quantitative DCE myocardique. Pour cela, une méthode de reconstruction de fonction d’entrée artérielle est présentée afin de permettre la quantification DCE sans séquence ou protocole spécifique. Un algorithme de recalage des images dynamiques est décrit, afin de rendre possible l’analyse sous forme de cartes paramétriques. Les conditions d’acquisition des données ont également été étudiées par simulations de Monte-Carlo et cela a permis de proposer un protocole le plus court possible pour l’estimation de Ve. Dans un second temps, les résultats obtenus par analyse DCE ont été comparés aux résultats obtenus par analyse ECV dans le diagnostic de fibrose diffuse. Une corrélation entre ces deux paramètres a été démontrée sur un groupe de 12 patients présentant un prolapsus de la valve mitrale. Un test de permutation a permis de séparer l’échantillon en deux sous-groupes de manière équivalente à l’ECV. Ces travaux de thèse proposent un flux de post traitement complet d’analyse quantitative DCE myocardique et ouvrent la voie à une estimation plus rapide du volume extracellulaire pour la quantification de la fibrose diffuse myocardique
Heart failure represents a major public health issue in western world. It is a complex syndrome that could be the cause and/or the consequence of underlying pathologies such interstitial diffuse fibrosis. Magnetic Resonance Imaging (MRI) is the reference imaging modality for soft tissue assessment and especially the myocardium. Several imaging biomarkers such relaxation time T1 or extracellular volume fraction (ECV) have proven their diagnostic power in term of sensitivity and specificity. MRI with contrast agent injection has also demonstrated its usefulness in diagnostic of post-infarct local fibrosis for instance. Dynamic contrast enhancement (DCE) is widely investigated for its supposed ability to discriminate areas from which perfusion/permeability properties have been altered by the presence of fibrosis deposition. We hypothesized that the quantification of myocardial permeability and the estimation of the extracellular extravascular volume fraction Ve could led to a better detection of diffuse fibrosis. Consequently, we investigated the possibility of a shorter protocol for the evaluation of ECV. In this manuscript, we first present the methodological developments that allow the quantitative analysis of DCE cardiac MRI. This implied the development of a post-processing method for Arterial Input Function reconstruction, allowing DCE quantification without the need of specific sequences or protocols. A post-processing algorithm for perfusion images registration have been developed for pixel-wise parametric maps reconstruction. Data acquisition have been simulated in a Monte-Carlo fashion in order to assess the impact of acquisition strategies on parameters accuracy. This eventually led to the design of the shortest possible imaging strategy for Ve quantification. Secondly, clinical results obtained with our quantitative DCE analysis framework have been confronted to those obtained with classical ECV method for diffuse fibrosis detection. Correlation between those two parameters have been found a group of 12 patients presenting mitral valve prolapses. Permutation test on Ve distribution allowed us to show a significant difference between two groups the same way the ECV values did. The presented work describes a full quantitative DCE analysis framework that could allow to a shorter imaging protocol for extracellular extravascular estimation for diffuse myocardial fibrosis diagnosis
APA, Harvard, Vancouver, ISO, and other styles
14

Tankyevych, Olena. "Filtering of thin objects : applications to vascular image analysis." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00607248.

Full text
Abstract:
The motivation of this work is filtering of elongated curvilinear objects in digital images. Their narrowness presents difficulties for their detection. In addition, they are prone to disconnections due to noise, image acquisition artefacts and occlusions by other objects. This work is focused on thin objects detection and linkage. For these purposes, a hybrid second-order derivative-based and morphological linear filtering method is proposed within the framework of scale-space theory. The theory of spatially-variant morphological filters is discussed and efficient algorithms are presented. From the application point of view, our work is motivated by the diagnosis, treatment planning and follow-up of vascular diseases. The first application is aimed at the assessment of arteriovenous malformations (AVM) of cerebral vasculature. The small size and the complexity of the vascular structures, coupled to noise, image acquisition artefacts, and blood signal heterogeneity make the analysis of such data a challenging task. This work is focused on cerebral angiographic image enhancement, segmentation and vascular network analysis with the final purpose to further assist the study of cerebral AVM. The second medical application concerns the processing of low dose X-ray images used in interventional radiology therapies observing insertion of guide-wires in the vascular system of patients. Such procedures are used in aneurysm treatment, tumour embolization and other clinical procedures. Due to low signal-to-noise ratio of such data, guide-wire detection is needed for their visualization and reconstruction. Here, we compare the performance of several line detection algorithms. The purpose of this work is to select a few of the most promising line detection methods for this medical application
APA, Harvard, Vancouver, ISO, and other styles
15

Pierre, Fabien. "Méthodes variationnelles pour la colorisation d’images, de vidéos, et la correction des couleurs." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0250/document.

Full text
Abstract:
Cette thèse traite de problèmes liés à la couleur. En particulier, on s’intéresse à des problématiques communes à la colorisation d’images, de vidéos et au rehaussement de contraste. Si on considère qu’une image est composée de deux informations complémentaires, une achromatique (sans couleur) et l’autre chromatique (en couleur), les applications étudiées consistent à traiter une de ces deux informations en préservant sa complémentaire. En colorisation, la difficulté est de calculer une image couleur en imposant son niveau de gris. Le rehaussement de contraste vise à modifier l’intensité d’une image en préservant sa teinte. Ces problématiques communes nous ont conduits à étudier formellement la géométrie de l’espace RGB. On a démontré que les espaces couleur classiques de la littérature pour résoudre ces types de problème conduisent à des erreurs. Un algorithme, appelé spécification luminance-teinte, qui calcule une couleur ayant une teinte et une luminance données est décrit dans cette thèse. L’extension de cette méthode à un cadre variationnel a été proposée. Ce modèle a été utilisé avec succès pour rehausser les images couleur, en utilisant des hypothèses connues sur le système visuel humain. Les méthodes de l’état-de-l’art pour la colorisation d’images se divisent en deux catégories. La première catégorie regroupe celles qui diffusent des points de couleurs posés par l’utilisateur pour obtenir une image colorisée (colorisation manuelle). La seconde est constituée de celles qui utilisent une image couleur de référence ou une base d’images couleur et transfèrent les couleurs de la référence sur l’image en niveaux de gris (colorisation basée exemple). Les deux types de méthodes ont leurs avantages et inconvénients. Dans cette thèse, on propose un modèle variationnel pour la colorisation basée exemple. Celui-ci est étendu en une méthode unifiant la colorisation manuelle et basée exemple. Enfin, nous décrivons des modèles variationnels qui colorisent des vidéos tout en permettent une interaction avec l’utilisateur
This thesis deals with problems related to color. In particular, we are interested inproblems which arise in image and video colorization and contrast enhancement. When considering color images composed of two complementary information, oneachromatic (without color) and the other chromatic (in color), the applications studied in this thesis are based on the processing one of these information while preserving its complement. In colorization, the challenge is to compute a color image while constraining its gray-scale channel. Contrast enhancement aims to modify the intensity channel of an image while preserving its hue.These joined problems require to formally study the RGB space geometry. In this work, it has been shown that the classical color spaces of the literature designed to solve these classes of problems lead to errors. An novel algorithm, called luminance-hue specification, which computes a color with a given hue and luminance is described in this thesis. The extension of this method to a variational framework has been proposed. This model has been used successfully to enhance color images, using well-known assumptions about the human visual system. The state-of-the-art methods for image colorization fall into two categories. The first category includes those that diffuse color scribbles drawn by the user (manual colorization). The second consists of those that benefits from a reference color image or a base of reference images to transfer the colors from the reference to the grayscale image (exemplar-based colorization). Both approach have their advantages and drawbacks. In this thesis, we design a variational model for exemplar-based colorization which is extended to a method unifying the manual colorization and the exemplar-based one. Finally, we describe two variational models to colorize videos in interaction with the user
APA, Harvard, Vancouver, ISO, and other styles
16

Betancur, Acevedo Julian Andrés. "Intégration d'images multimodales pour la caractérisation de cardiomyopathies hypertrophiques et d'asynchronismes cardiaques." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S089/document.

Full text
Abstract:
Cette thèse porte sur la caractérisation cardiaque, qui représente un enjeu méthodologique et clinique important, à la fois pour améliorer le diagnostic des pathologies et optimiser les moyens de traitement. Des méthodes de recalage et de fusion de données sont proposées pour amener dans un même référentiel des images IRM, scanner, échographiques et électro-anatomiques et ainsi décrire le cœur suivant des caractéristiques anatomiques, électriques, mécaniques et tissulaires. Les méthodes proposées pour recaler des données multimodales reposent sur deux processus principaux : l'alignement temporel et le recalage spatial. Les dimensions temporelles des images considérées sont mises en synchronisées par une méthode de déformation temporelle dynamique adaptative. Celle-ci permet de compenser les modifications temporelles non-linéaires entre les différentes acquisitions. Pour le recalage spatial, des méthodes iconiques ont été développées pour corriger les artefacts de mouvements dans les séquences ciné-IRM, pour recaler les séquences ciné-IRM avec les séquences d'IRM de rehaussement tardif et pour recaler les ciné-IRM avec les images scanner. D'autre part, une méthode basée contours, développée dans un précédent travail, a été améliorée pour prendre en compte des acquisitions échographiques multi-vues. Ces méthodes ont été évaluées sur données réelles pour sélectionner les métriques les plus adaptées et pour quantifier les performances des approches iconiques et pour estimer la précision du recalage entre échographies et ciné-IRM. Ces méthodes sont appliquées à la caractérisation de cardiomyopathies hypertrophiques (CMH) et d'asynchronismes cardiaques. Pour la CMH, l'objectif était de mieux interpréter les données échographiques par la fusion de l'information de fibrose issue de l'IRM de rehaussement tardif avec l'information mécanique issue de l'échographie de speckle tracking. Cette analyse a permis d'évaluer le strain régional en tant qu'indicateur de la présence locale de fibrose. Concernant l'asynchronisme cardiaque, nous avons établi une description du couplage électromécanique local du ventricule gauche par la fusion de données échographiques, électro-anatomiques, scanner et, dans les cas appropriés, d'IRM de rehaussement tardif. Cette étude de faisabilité ouvre des perspectives pour l'utilisation de nouveaux descripteurs pour la sélection des sites de stimulation optimaux pour la thérapie de resynchronisation cardiaque
This work concerns cardiac characterization, a major methodological and clinical issue, both to improve disease diagnostic and to optimize its treatment. Multisensor registration and fusion methods are proposed to bring into a common referential data from cardiac magnetic resonance (CMRI), dynamic cardiac X-ray computed tomography (CT), speckle tracking echocardiography (STE) and electro-anatomical mappings of the inner left ventricular chamber (EAM). These data is used to describe the heart by its anatomy, electrical and mechanical function, and the state of the myocardial tissue. The methods proposed to register the multimodal datasets rely on two main processes: temporal registration and spatial registration. The temporal dimensions of input data (images) are warped with an adaptive dynamic time warping (ADTW) method. This method allowed to handle the nonlinear temporal relationship between the different acquisitions. Concerning the spatial registration, iconic methods were developed, on the one hand, to correct for motion artifacts in cine acquisition, to register cine-CMRI and late gadolinium CMRI (LGE-CMRI), and to register cine-CMRI with dynamic CT. On the other hand, a contour-based method developed in a previous work was enhanced to account for multiview STE acquisitions. These methods were evaluated on real data in terms of the best metrics to use and of the accuracy of the iconic methods, and to assess the STE to cine-CMRI registration. The fusion of these multisensor data enabled to get insights about the diseased heart in the context of hypertrophic cardiomyopathy (HCM) and cardiac asynchronism. For HCM, we aimed to improve the understanding of STE by fusing fibrosis from LGE-CMRI with strain from multiview 2D STE. This analysis allowed to assess the significance of regional STE strain as a surrogate of the presence of regional myocardial fibrosis. Concerning cardiac asynchronism, we aimed to describe the intra-segment electro-mechanical coupling of the left ventricle using fused data from STE, EAM, CT and, if relevant, from LGE-CMRI. This feasibility study provided new elements to select the optimal sites for LV stimulation
APA, Harvard, Vancouver, ISO, and other styles
17

Bélanger, Jean. "Mise à jour de la Base de Données Topographiques du Québec à l'aide d'images à très haute résolution spatiale et du progiciel Sigma0 : le cas des voies de communication." Thèse, 2011. http://hdl.handle.net/1866/6319.

Full text
Abstract:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
In order to optimize and reduce the cost of road map updating, the Ministry of Natural Resources and Wildlife is considering exploiting high definition color aerial photography within a global automatic detection process. In that regard, Montreal based SYNETIX Inc, teamed with the University of Montreal Remote Sensing Laboratory (UMRSL) in the development of an application indented for the automatic detection of road networks on complex radiometric high definition imagery. This application named SIGMA-ROUTES is a derived module of a software called SIGMA0 earlier developed by the UMRSL for optic and radar imagery of 5 to 10 meter resolution. SIGMA-ROUTES road detections relies on a map guided filtering process that enables the filter to be driven along previously known road vectors and tagged them as intact, suspect or lost depending on the filtering responses. As for the new segments updating, the process first implies a detection of potential starting points for new roads within the filtering corridor of previously known road to which they should be connected. In that respect, it is a very challenging task to emulate the human visual filtering process and further distinguish potential starting points of new roads on complex radiometric high definition imagery. In this research, we intend to evaluate the application’s efficiency in terms of total linear distances of detected roads as well as the spatial location of inconsistencies on a 2.8 km2 test site containing 40 km of various road categories in a semi-urban environment. As specific objectives, we first intend to establish the impact of different resolutions of the input imagery and secondly establish the potential gains of enhanced images (segmented and others) in a preemptive approach of better matching the image property with the detection parameters. These results have been compared to a ground truth reference obtained by a conventional visual detection process on the bases of total linear distances and spatial location of detection. The best results with the most efficient combination of resolution and pre-processing have shown a 78% intact detection in accordance to the ground truth reference when applied to a segmented resample image. The impact of image resolution is clearly noted as a change from 84 cm to 210 cm resolution altered the total detected distances of intact roads of around 15%. We also found many roads segments ignored by the process and without detection status although they were directly liked to intact neighbours. By revising the algorithm and optimizing the image pre-processing, we estimate a 90% intact detection performance can be reached. The new segment detection is non conclusive as it generates an uncontrolled networks of false detections throughout other entities in the images. Related to these false detections of new roads, we were able to identify numerous cases of new road detections parallel to previously assigned intact road segments. We conclude with a proposed procedure that involves enhanced images as input combined with human interventions at critical level in order to optimize the final product.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography