Tesis sobre el tema "Image à haut résolution"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Image à haut résolution.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Image à haut résolution".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Janin-Potiron, Pierre. "Correction active des discontinuités pupillaires des télescopes à miroir segmenté pour l’imagerie haut contraste et la haute résolution angulaire". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4078/document.

Texto completo
Resumen
La recherche de signes de vie extraterrestre par l'observation et la caractérisation d'exoplanètes est, entre autres, l'un des enjeux majeurs de l'astrophysique moderne. Cette quête se traduit de manière instrumentale par le développement de télescopes fournissant des résolutions angulaires supérieures à celles obtenues à l'heure actuelle. C'est pourquoi les projets de futurs très grands télescopes font usage de miroirs primaires dépassant les 30 mètres de diamètre. Leur conception est alors inévitablement basée, pour des raisons techniques et technologiques, sur une géométrie segmentée. De ce fait, la segmentation du miroir primaire implique une complexification des structures pupillaires du télescope. Dans le but d'atteindre les niveaux de qualité optique nécessaires aux applications scientifiques visées, la prise en compte et la correction des effets introduits par un mauvais alignement des segments est de prime importance puisque la résolution angulaire d'un télescope non cophasé serait équivalente à celle obtenue avec un segment individuel. Dans ce contexte, je développe dans cette thèse deux analyseurs de cophasage permettant de mesurer et de corriger les aberrations de piston, tip et tilt présentes sur une pupille segmentée. Le premier, nommé Self-Coherent Camera - Phasing Sensor (SCC-PS), est basé sur une analyse du signal en plan focal. Le second, nommé ZELDA - Phasing Sensor (ZELDA-PS), repose quant à lui sur une analyse du signal en plan pupille. Sont présentés dans ce manuscrit les résultats obtenus à l'aide de simulations numériques ainsi que ceux issus de l'implémentation de la SCC-PS sur un banc d'optique d'essai
Searching for extraterrestrial life through the observation and characterization of exoplanets is, amongst others, one of the major goal of the modern astrophysics. This quest translate from an instrumental point of view to the development of telescope capable of reaching higher angular resolution that what is actually ongoing. That is why the future projects of extremely large telescopes are using primary mirrors exceeding the 30 meters in diameter. Their conception is consequently based, for technical and technological reasons, on a segmented geometry. The segmentation of the primary mirror therefore implies a growing complexity of the structure of its pupil. In order to reach the optical quality required by the sciences cases of interest, taking into account and correct for the effects introduced by a poor alignment of the segments is mandatory, as the angular resolution of a non-cophased telescope is equivalent to the one obtained with a single segment. In this context, I develop in this manuscript two cophasing sensors allowing to measure and correct for the aberrations of piston, tip and tilt present on a segmented pupil. The first one, the Self-Coherent Camera - Phasing Sensor (SCC-PS), is based on a focal plane analysis of the signal. The second one, the ZELDA - Phasing Sensor (ZELDA-PS), is based on a pupil plane analysis of the signal. The results obtained by means of numerical simulations and the first results coming from the implementation of the SCC-PS on an optical bench are presented in this manuscript
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Meurer-Grob, Patricia. "Etude structurale des microtubules à haute résolution". Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10240.

Texto completo
Resumen
Les microtubules sont des elements du cytosquelette essentiels pour l'architecture et l'organisation du cytoplasme de la plupart des cellules eucaryotes. Ce sont des tubes creux de 250 a de diametre resultant de la polymerisation d'une proteine, l'heterodimere de tubuline. Les proprietes dynamiques et structurales des microtubules sont essentielles pour l'accomplissement de leur role in vivo. Nous avons observe en cryomicroscopie electronique deux types de microtubules, assembles en presence de deux ligands differents, un analogue non hydrolysable du gtp, le guanylyl-(,)-methylene-diphosphonate (gmpcpp), et une drogue antimitotique, le taxotere. Ces deux ligands ont la propriete de stabiliser les microtubules. Les techniques de reconstruction helicoidales ont ete utilisees pour obtenir deux cartes de densite tridimensionnelles de microtubules-gmpcpp et -taxotere a une resolution entre 13,4 et 14 a. Par ailleurs, des structures a haute resolution du dimere de tubuline ont recemment ete obtenues par des approches cristallographiques par differents groupes. Des modeles pseudo atomiques de microtubules ont ete realises en combinant la structure a haute resolution du dimere de tubuline et les cartes de densite des microtubules, afin de visualiser les interactions entre les molecules de tubuline formant ces complexes. Des changements conformationnels de la molecule de tubuline pourraient expliquer les proprietes stabilisatrices du gmpcpp et du taxotere. Enfin, les proprietes de l'assemblage de differentes formes de tubuline ont ete discutees en fonction des regions putatives d'interactions des dimeres de tubuline dans les microtubules.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Mugnier, Laurent. "Problèmes inverses en Haute Résolution Angulaire". Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Texto completo
Resumen
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Le, Men Camille. "Segmentation Spatio-temporelle d'une séquence d'images satellitaires à haute résolution". Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2009. http://pastel.archives-ouvertes.fr/pastel-00658159.

Texto completo
Resumen
Les séquences temporelles d'images présentent une quantité d'information bien plus importante que des images individuelles. En effet, la prise en compte du temps accroit considérablement le nombre d'états possibles ce qui se traduit par une quantité d'information plus importante (au sens entropie). Grâce à l'agilité des satellites de nouvelle génération et à leur utilisation dans des constellations, des séquences temporelles d'images satellitaires, STIS, vont maintenant être accessibles à haute résolution. Ces données sont extrêmement riches, mais en contrepartie, elles sont complexes et difficiles à interpréter manuellement. Des méthodes d'analyse automatique sont donc requises. Les STIS à haute résolution (STISHR) se distinguent des autres types de séquences existantes par la nature des changements qu'elles présentent. En effet, contrairement aux STIS à basse résolution, les STISHR contiennent des objets. Afin de tenir compte de cette particularité, une méthode d'analyse orientée objet doit donc être utilisée. De telles méthodes existent dans le domaine de la vidéo. Cependant, les objets des STISHR peuvent subir des changements radiométriques, par exemple liés à la croissance des plantes, alors que la radiométrie des objets de vidéo est généralement supposée invariante. Nous devons donc concevoir une méthode d'analyse orientée objet adaptée à la STISHR. Par ailleurs, l'échantillonnage temporel des STISHR est irrégulier et généralement sous-échantillonné par rapport aux phénomènes observables à ces résolutions spatiales. De plus, du point de vue du satellite, aux évolutions radiométriques propres aux objets de la scène se rajoutent les évolutions radiométriques liées à l'épaisseur atmosphérique. Néanmoins, hormis de faibles erreurs de recalage géométrique, la STISHR présente une redondance temporelle dans la forme des objets. Ainsi, une construction est généralement pérenne et une zone cultivable est rarement modifiée. Nous proposons donc une méthode d'analyse de la STISHR basée objet de façon à exploiter d'une part la redondance radiométrique intra objets spatiaux, et d'autre part, la redondance temporelle de forme entre ces objets. Une étude phénoménologique de la dynamique de la scène et de la STISHR nous permet d'identifier les caractéristiques d'une représentation adaptée à la description de ses changements : il s'agit d'un graphe dont les noeuds sont des objets spatiaux reliés par des arcs exprimant leur dépendance temporelle. Le calcul de ce graphe est cependant un problème difficile, et nous proposons d'en calculer une approximation. Cette approximation est calculée en deux temps. Dans un premier temps, on considère une approximation forte sur les dépendances temporelles afin de faciliter la détermination des régions spatiales. Celles-ci sont extraites grâce à un algorithme de segmentation exploitant conjointement les deux types de redondances disponibles : l'homogénéité radiométrique spatiale, et la redondance géométrique temporelle. Les noeuds du graphe ainsi déterminés, on relaxe l'approximation sur les dépendances temporelles de façon à obtenir une estimation plus fine du graphe. Nous proposons ensuite deux utilisations de ce graphe. L'une exploite ses caractéristiques structurelles telles que la valence des noeuds afin de détecter les changements géométriques. L'autre, utilise une version attribuée par des propriétés radiométriques du graphe pour mettre en évidence des comportements fréquents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

PETIT, David. "Extraction du « 3D » par interférométrie radar à haute résolution". Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00009833.

Texto completo
Resumen
Depuis quelques années, l'interférométrie radar a largement démontré son aptitude à recréer des Modèles Numériques de Terrain (MNT). Cependant, son usage reste délicat aux hautes résolutions, notamment en milieu urbain. En effet, les caractéristiques géométriques d'acquisition et les propriétés de l'onde radar créent des ambiguïtés dans le signal interférométrique. Dans un premier temps, une approche par simulation a donc été retenue, afin d'étudier l'impact des phénomènes mis en jeu, et de tester les techniques susceptibles de lever les ambiguïtés. Ainsi, les travaux sur la haute résolution radar ont mis en évidence des cas de corrélation spatiale de la phase sur des données réelles et simulées. Une proposition de modélisation du phénomène a été effectuée, et nous en avons montré les implications dans le cadre des traitements interférométriques. Nous avons ensuite étudié la possibilité d'un traitement optimal des zones de repliement pour la reconstruction du 3D sur des données simulées, grâce à des techniques de filtrage fréquentiel. Enfin, nous avons souligné l'intérêt d'une reconstruction adaptée à l'objet traité, grâce à une classification floue obtenue à partir de l'ensemble des informations extraites de l'image.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Poulain, Vincent. "Fusion d'images optique et radar à haute résolution pour la mise à jour de bases de données cartographiques". Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0093/document.

Texto completo
Resumen
Cette thèse se situe dans le cadre de l'interprétation d'images satellite à haute résolution, et concerne plus spécifiquement la mise à jour de bases de données cartographiques grâce à des images optique et radar à haute résolution. Cette étude présente une chaîne de traitement générique pour la création ou la mise à jour de bases de données représentant les routes ou les bâtiments en milieu urbain. En fonction des données disponibles, différents scénarios sont envisagés. Le traitement est effectué en deux étapes. D'abord nous cherchons les objets qui doivent être retirés de la base de données. La seconde étape consiste à rechercher dans les images de nouveaux objets à ajouter dans la base de données. Pour réaliser ces deux étapes, des descripteurs sont construits dans le but de caractériser les objets d'intérêt dans les images d'entrée. L'inclusion ou élimination des objets dans la base de données est basée sur un score obtenu après fusion des descripteurs dans le cadre de la théorie de Dempster-Shafer. Les résultats présentés dans cette thèse illustrent l'intérêt d'une fusion multi-capteurs. De plus l'intégration aisée de nouveaux descripteurs permet à la chaîne d'être améliorable et adaptable à d'autres objets
This work takes place in the framework of high resolution remote sensing image analysis. It focuses on the issue of cartographic database creation or updating with optical and SAR images. The goal of this work is to build a generic processing chain to update or create a cartographic database representing roads and buildings in built-up areas. According to available data, various scenarios are foreseen. The proposed processing chain is composed of two steps. First, if a database is available, the presence of each database object is checked in the images. The second step consist of looking for new objects that should be included in the database. To determine if an object should be present in the updated database, relevant features are extracted from images in the neighborhood of the considered object. Those features are based on caracteristics of roads and buildings in SAR and optical images. The object removal/inclusion in the DB is based on a score obtained by the fusion of features in the framework of the Dempster-Shafer evidence theory. Results highlight the interest of multi sensor fusion. Moreover the chosen framework allows the easy integration of new features in the processing chain
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

El, Kassis Carine. "Méthodes à haute résolution pour antennes non uniformes". Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00447488.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons aux méthodes de traitement d'antennes pour la localisation de sources dans le cas des antennes linéaires non uniformes. Le travail porte principalement sur les méthodes à haute résolution qui sont particulièrement adaptées aux antennes linéaires non uniformes afin de s'affranchir des problématiques associées aux lobes secondaires. Nous démontrons que Root-MUSIC peut être directement appliquée dans le cas des antennes non uniformes lacunaires. De plus, nous montrons que la suppression d'un certain nombre de capteurs d'une antenne linéaire uniforme ne dégrade que très légèrement les performances grâce à l'utilisation des méthodes à haute résolution comme Root-MUSIC. Ensuite, nous proposons une nouvelle méthode EM-ESPRIT qui peut être utilisée pour n'importe quel type de géométrie d'antenne non uniforme. Cette méthode itérative est basée sur les deux algorithmes : Expectation-Maximization (EM) et ESPRIT. L'étude des performances de EM-ESPRIT montre qu'elle présente de meilleures performances que la plupart des méthodes, en particulier pour des niveaux de bruit importants. De plus, deux variantes : EM-ESPRIT stochastique et EMRoot- MUSIC sont proposées afin d'améliorer les aspects de convergence et de consistance de EM-ESPRIT. Finalement, nous considérons une application liée à la localisation de sources aéroacoustiques sur la carrosserie d'une voiture. La mise en oeuvre d'une méthode de type Zero-Forcing MUSIC a permis d'obtenir de bons résultats sur des données simulées et réelles, en particulier pour des sources proches et de puissance différente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Miron, Sebastian. "Méthodes multilinéaires et hypercomplexes en traitement d'antenne multicomposante haute résolution". Phd thesis, Grenoble INPG, 2005. http://www.theses.fr/2005INPG0102.

Texto completo
Resumen
Ce travail de recherche est consacré à l'élaboration des méthodes de traitement d'antenne multicapteur, multicomposante. Le traitement des signaux enregistrés par ce type d'antenne permet l'estimation de la direction d'arrivée et des paramètres de polarisation des ondes arrivant sur l'antenne. Nous montrons comment l'incorporation (d'une manière judicieuse) de l'information multicomposante permet d'améliorer les performances des algorithmes de traitement. L'originalité des méthodes proposées tient à l'utilisation des modèles mathématiques, sortant du cadre de l'algèbre vectorielle classique, et qui se trouvent particulièrement bien adaptés à la nature des signaux multicomposante. Une première approche est fondée sur un modèle tensoriel, permettant de conserver la structure multimodale des signaux. Le tenseur interspectral est introduit pour représenter la covariance des données. Nous proposons deux algorithmes (Vector-MUSIC et Higher-Order MUSIC) basés sur des décompositions orthogonales du tenseur interspectral. Nous montrons, sur des simulations, que l'utilisations du modèle tensoriel et des décompositions multilinéaires associées arnéliorent les performances des méthodes proposées par rapport à celles atteignables avec les techniques classiques. Nous proposons également une approche en traitement d'antenne multicomposante fondée sur l'utilisation des algèbres hypercomplexes. Les vecteurs de quaternions et biquaternions sont utilisés pour modéliser les signaux polarisés enregistrés par une antenne à deux, trois ou quatre composantes. Deux algorithmes (Quaternion-MUSIC et Biquaternion-MUSIC), basés sur la diagonalisation des matrices de quaternions et de biquaternions, sont introduits. Nous montrons que l'utilisation des nombres hypercomplexes réduit le temps de calcul et améliore la résolution des méthodes
This research is devoted 1,0 vector-sensor array processing methods. The signaIs recorded on a vector-sensor array allow the estimation of the direction of arrivaI and polarization for multiple waves impinging on the antenna. We show how the correct use of polarization information improves the performance of algorithms. The novelty of the presented work consists in the use of mathematical models well-adapted 1,0 the intrinsic nature of vectorial signaIs. The first approach is based on a multilinear model of polarization that preserves the intrinsic structure of multicomponent acquisition. Ln this case, the data covariance model is represented by a cross-spectral tensor. We propose two algorithms (Vector-MUSIC and Higher-Order MUSIC) based on orthogonal decompositions of the cross-spectral tensor. We show in simulations that the use of this model and of the multilinear orthogonal decompositions improve the performance of the proposed methods compared to classical techniques based on linear algebra. A second approach uses hypercomplex algebras. Quaternion and biquaternion vectors are used to model the polarized signaIs recorded on two, three or four component sensor arrays. Quaternion-MUSIC and Biquaternion-MUSIC algorithrns, based on the diagonalization of quaternion and biquaternion matrices are introduced. We show that the use of hypercornplex numbers reduces the computational burden and increases the solution power of the methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Puissant, Anne. "Information géographique et images à très haute résolution : Utilité et applications en milieu urbain". Université Louis Pasteur (Strasbourg) (1971-2008), 2003. https://publication-theses.unistra.fr/public/theses_doctorat/2003/PUISSANT_Anne_2003.pdf.

Texto completo
Resumen
Depuis le milieu des années 1990, l'INFO-STRATEGIE, c'est-à-dire la stratégie de mise en place de l'Information Géographique, est au cœur des préoccupations des gestionnaires du territoire et des urbanis-tes. Elle nécessite des données multi-sources, multi-échelles et mises à jour régulièrement à une périodicité adaptée à l'évolution du milieu urbain. Les images d'Observation de la Terre représentent un potentiel im-portant d'acquisition d'IG. Actuellement, le marché connaît une évolution majeure avec la mise en orbite de produits-systèmes Très Haute Résolution (THR) de résolution inférieure à 5 m. Cette évolution technologi-que débouche sur une abondance de données numériques, sources potentielles d'IG en milieu urbain, modi-fie les attentes des utilisateurs et transforme leurs applications. Une réflexion en termes de demande (forma-lisation des besoins) et non plus d'offre est indispensable pour répondre à la multiplication de l'utilisation d'IG à diverses échelles. Par ailleurs, répondre aux besoins des " utilisateurs finaux " (politiques, gestionnai-res, techniciens) revient à préciser les ajustements nécessaires à la définition des capacités des nouveaux produits-systèmes. A partir d'une enquête auprès des utilisateurs d'IG, un cahier des charges précisant les besoins en information à grande échelle est établi. Des " niches potentielles d'utilisation " des images métri-ques sont identifiées. Des tests sont appliqués pour analyser les gains dans l'utilisation de ces nouveaux capteurs. L'un des enjeux de l'augmentation de la résolution spatiale est une nouvelle vision du territoire plus proche de la réalité. Les objets urbains s'individualisent (domaine de l'identification) et sont caractérisés par leurs éléments constitutifs (domaine de l'analyse). Cet apport de détails perturbe les procédures classi-ques d'extraction automatiques et complexifie l'attribution des objets aux nomenclatures existantes. Le test de plusieurs algorithmes classiques conduit à la formalisation de règles d'identification des objets urbains sur des images THR. Ces règles sont intégrées dans une procédure de classification " orientée-objets "
Since the mid 1990s 'INFO-STRATEGY', i. E. The strategic use of Geographic Information, is one of the reliable goals in urban management, planning and sustainable development. Geographic Information requires multisource and multiscale data, updated on a regular basis at appropriate time periods. Earth Observation data-such as aerial photography and satellite image-represent an important source for GI. Recently, the use of Very High Resolution imagery data (VHR - finer than 5m) offers an abundance of numerical information and therefore an important possibility to use GI in decision-making concerning the urban environment. A reflection is thus required in terms of needs rather than supply in order to meet the requirements of localised information on a variety of scales. Moreover, defining the needs of the 'end users' (decision-makers, managers, technicians) corresponds to propose the necessary adjustment to the definition of the capacity of these new sensors. In this context, on the basis of comparisons and surveys of the 'end users' a reference grid defining the needs of GI on a large-scale basis has been established. Some "potential applications" of metric images are highlighted. Tests have been carried out in order to analyse very precisely the benefits of use of these new sensors. An important factor in the increase of spatial resolution is a new vision of the territory that is closer to real-ity. Urban objects are individually recognisable (field of identification) and can be characterised by their components (field of analysis). This superabundance of details disturbs the classical automatic proce-dures of extraction (per pixel classification) and makes complex the attribution of objects to existing nomenclatures. After having tested several traditional algorithms used on HR images, it appears neces-sary to transcribe the rules of identification of urban objects and to integrate them into an 'object-oriented' classification method
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Iturbe, Ion. "Tomographie acoustique haute résolution dans un guide d'onde océanique". Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00521540.

Texto completo
Resumen
Cette thèse porte sur la Tomographie Acoustique Océanique qui permet d'estimer la température de l'eau dans une tranche d'océan à partir de mesures acoustiques. Les vitesse de propagation des ondes étant fortement liée à la température, la tomographie consiste à estimer la célérité à partir des mesures des temps de propagation des ondes acoustiques. Nous nous intéressons à des acquisitions réalisées avec deux antennes, une d'émetteurs et une de récepteurs, placées verticalement face à face, dans un guide d'ondes côtier. Dans ces guides peu profonds, la mesure des temps de propagation ainsi que leur identification sont difficiles à réaliser à cause de la propagation multi-trajets. Avec une acquisition à deux antennes, nous proposons un algorithme de Double Formation de Voies permettant de séparer les contributions des différents trajets, en fonction de leurs angles d'émission et de leurs angles de réception. En plus des mesures des temps de propagation, la tomographie a besoin d'un modèle physique reliant les temps de propagation à la célérité. Deux modèles ont été analysés pendant ces travaux: la théorie classique des rayons, et les Noyaux de Sensibilité du Temps de Propagation (NSTP) obtenus sous l'approximation de Born. Une adaptation des NSTP au cas des mesures obtenues par Double Formation de Voies (D-FV) a été réalisée. Les méthodes développées ont été validées sur des données synthétiques et sur des données "petites échelles" reproduisant la propagation des guides océaniques dans une cuve d'eau de dimensions réduites. L'étude des données ''petites échelles'' a par ailleurs permis d'étudier certains phénomènes physiques: la convection et les vagues de surface.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Bisiaux, Pierre. "Etude et conception de CAN haute résolution pour le domaine de l’imagerie". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC030/document.

Texto completo
Resumen
Cette thèse porte sur la conception et la réalisation de convertisseurs analogique/numérique (ADC) haute résolution dans le domaine de l’imagerie spatiale en technologie 0.18 μm.Un imageur CMOS est un système destiné à acquérir des informations lumineuses et les convertir en données numériques afin que cellesci soient traitées. Ce système est composé d’une matrice de pixels, d’ADC, de registres et de blocs de signaux de commande afin de rendre toutes ces données disponibles. Avec la taille grandissante de la matrice de pixels et la cadence d’image par seconde croissante, l’ADC doit réaliser de plus en plus de conversions en moins de temps et est donc devenu l’un des « bottleneck » les plus importants dans les systèmes d’imagerie. Une solution adaptée a donc été le développement d’ADC colonne situé en bout de colonnes de pixels afin de réaliser des conversions en parallèles et c’est ce sujet qui va m’intéresser.Dans une première partie, n’ayant pas de contraintes sur l’architecture d’ADC à utiliser, une étude de l’état de l’art des ADC pour l’imagerie est réalisée ainsi que les spécifications visées pour notre application. Une architecture sigma-delta incrémental à deux étapes semble la plus prometteuse et va être développée. Ensuite, une étude théorique de l’ADC choisi, et plus particulièrement du modulateur sigma-delta à utiliser est effectuée, afin notamment de déterminer l’ordre de ce modulateur, mais également le nombre de cycles de cette conversions. Une fois les paramètres de modélisation définis, un schéma transistor est réalisé au niveau transistor, avec une particularité au niveau de l’amplificateur utilisé. En effet, afin de gagner en surface qui est l’un des points importants dans les systèmes d’imagerie, un inverseur est utilisé. Une étude de cette inverseur, afin de choisir le plus adapté à notre besoin est effectuée avec des simulations montecarlo et aux « corners ». Pour finir, un routage global de l’ADC est réalisé afin de pouvoir comparer ces performances à l’état de l’art
This thesis deals with the conception and design of high resolution analog-to-digital converters (ADC) for CMOS image sensor (CIS) applications with the 0.18 μm technology. A CIS is a system able to convert light to digital data to be processed. This system includes a pixel array, ADCs, registers and a set of clocks to acquire and transport the data. At the beginning, a single ADC was used for the whole matrix of pixels, converting the pixel value in a sequential way. With the growing size of the pixel array and the increasing frame rate, the ADC became one of the bottleneck of these system. A solution was found to use column ADC, located at the bottom of each column in order to parallelize the conversions. These column ADC are going to be my point of interest in this thesis.First of all, a state of the art of the ADC for CIS is realized in order to determine the best architecture to use. A two-step incremental sigma-delta is chosen and investigated. A theoretical analysis is done, especially on the modulator in order to determine the order of this modulator and the oversampling ratio of the conversion. Then a schematic is realized, with a special feature on the amplifier. Indeed, an inverter is used as amplifier in order to reduce the size of the ADC. A montecarlo and corner studies are then realized on the ADC, a layout is proposed and the ADC is compared to the state of the art of the ADC for CIS
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Cantalloube, Faustine. "Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAY017/document.

Texto completo
Resumen
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles
Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Mees, Wim. "Contribution à l'analyse distribuée de scènes : application aux images satellitaires multi spectrales, haute résolution". Nancy 1, 2000. http://www.theses.fr/2000NAN10282.

Texto completo
Resumen
De plus en plus de satellites d'observation sont mis en orbite autour de la terre et fournissent des images, à très haute résolution dans différentes bandes spectrales. La quantité d'informations disponibles est devenue trop importante pour qu'une équipe actuelle de photo-interprètes expérimentés puissent la traiter entièrement. Pour cette raison, il faut développer des systèmes (semi)automatiques d'analyse de scènes, pour assister les photo-interprètes. Des problèmes aussi complexes que la reconnaissance automatique de la parole ou l'interprétation automatique d'images, ne peuvent pas être résolus par une approche procédurale. Ils nécessitent un système plus complexe, qui prend en compte la connaissance a priori. L'architecture du système d'analyse de scènes, présente dans cette thèse, a été appliquée à l'analyse d'aéroports, avec comme objets d'intérêt les pistes d'atterrissage, les hangars pour avion, ainsi que les routes qui relient les premières aux seconds. Dans cette thèse, nous décrivons tout d'abord la connaissance qui doit être intégrée dans un système d'analyse de scènes afin de régulariser le problème mal-posé de la vision par ordinateur. Cette analyse de la connaissance a priori est suivie par une description du système à tableau noir, qui est utilisé pour représenter et intégrer les différents types de connaissance, la façon dont la fusion de données multiniveaux est utilisée pour réduire la probabilité de fausse alarme, ne se déduit pas directement de l'architecture du système. C'est pourquoi nous analysons les trois niveaux de fusion séparément plus en détail.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Corpetti, Thomas. "Images & télédétection : analyse de séquences à basse et très haute résolution spatiale". Habilitation à diriger des recherches, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00616558.

Texto completo
Resumen
Ce document d'habilitation est consacré à l'étude de séries temporelles d'images de télédétection à basse (LSR) et à très haute résolution spatiale (VHSR). Les phénomènes étudiés concernent la météorologie et l'océanographie (données LSR) et l'agriculture et le milieu urbain (données VHSR). La fréquence d'acquisition des données satellites est inversement proportionnelle à la résolution spatiale. Ainsi, pour des données LSR, la cadence d'acquisition est élevée (une images pour $15min$ avec le satellite MSG --Météosat Seconde Génération) et cela autorise l'étude des mouvement atmosphériques turbulents observés à travers le mouvement des nuages, la circulation océanique, ... Les problèmes d'analyse d'images associés concernent l'estimation du mouvement, le suivi de courbe ou encore l'interpolation de données manquantes. En ce qui concerne les données VHSR, la période séparant deux images peut varier de quelques semaines à quelques mois. Les études associées sont alors dédiées à la détection de changements structurels entre deux images. Du point de vue méthodologique, l'analyse de données LSR est principalement réalisée en introduisant des connaissances physiques a priori dans les outils classiques d'analyse d'images. Une part importante est dédiée à l'utilisation de techniques d'assimilation variationnelle de données. Pour l'analyse de données VHSR, nous proposons des descripteurs spécifiques permettant de caractériser les motifs texturés que l'on a à manipuler. Ces descripteurs sont ensuite utilisés pour résoudre différents problèmes d'analyse de données VHSR tels que la segmentation, la classification, la détection de fronts texturés ou encore l'estimation de l'orientation. Enfin, un chapitre est consacré à la détection de changements où nous proposons des techniques pour le détection binaire et multi-labels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Bourguignon, Sébastien. "Analyse spectrale à haute résolution de signaux irrégulièrement échantillonnés : application à l'Astrophysique". Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00116827.

Texto completo
Resumen
L'étude de nombreux phénomènes astronomiques repose sur la recherche de périodicités dans des séries temporelles (courbes de lumière ou de vitesse radiale). En raison des contraintes observationnelles, la couverture temporelle des données résultantes est souvent incomplète, présentant des trous périodiques ainsi qu'un échantillonnage irrégulier. L'analyse du contenu fréquentiel de telles séries basée sur le spectre de Fourier s'avère alors inefficace et les méthodes heuristiques de déconvolution de type CLEAN, couramment utilisées en astronomie, ne donnent pas entière satisfaction. Cette thèse s'inscrit dans le formalisme fréquemment rencontré depuis les années 1990 abordant l'analyse spectrale sous la forme d'un problème inverse, le spectre étant discrétisé sur une grille fréquentielle arbitrairement fine. Sa régularisation est alors envisagée en traduisant la nature a priori parcimonieuse de l'objet à reconstruire: nous nous intéressons ici à la recherche de raies spectrales.
Une première approche envisagée a trait au domaine de l'optimisation et consiste à minimiser un critère de type moindres carrés, pénalisé par une fonction favorisant les solutions parcimonieuses. La pénalisation par la norme l1 est en particulier étudiée en extension à des variables complexes et s'avère satisfaisante en termes de modélisation. Nous proposons des solutions algorithmiques particulièrement performantes permettant d'envisager une analyse à très haute résolution fréquentielle.
Nous étudions ensuite la modélisation probabiliste des amplitudes spectrales sous la forme d'un processus Bernoulli-Gaussien, dont les paramètres sont estimés au sens de la moyenne a posteriori à partir de techniques d'échantillonnage stochastique, permettant d'envisager une estimation totalement non supervisée. L'interprétation probabiliste du résultat ainsi que l'obtention conjointe des variances associées, sont alors d'un intérêt astrophysique majeur, s'interprétant en termes de niveaux de confiance sur les composantes spectrales détectées. Nous proposons dans un premier temps des améliorations de l'algorithme échantillonneur de Gibbs permettant d'accélérer l'exploration de la loi échantillonnée. Ensuite, nous introduisons des variables de décalage fréquentiel à valeur continue, permettant d'augmenter la précision de l'estimation sans trop pénaliser le coût calculatoire associé.
Pour chaque méthode proposée, nous illustrons sur des simulations la qualité de l'estimation ainsi que les performances des algorithmes développés. Leur application à un jeu de données issu d'observations astrophysiques est enfin présentée, mettant en évidence l'apport d'une telle méthodologie par rapport aux méthodes d'analyse spectrale habituellement utilisées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Houllier, Régis. "Vidéoprojecteur laser haute définition monochrome". Valenciennes, 1987. https://ged.uphf.fr/nuxeo/site/esupversions/5a2c087e-4de3-44ce-98fe-b0007cd5e5bd.

Texto completo
Resumen
Dans ce mémoire a été développé l'étude et la réalisation d'une maquette à partir d'une source laser de forte puissance qui projette des images monochromes avec une définition six fois supérieure à celle des télévisions standards. Il a été développé un système de projection simultanée de 8 lignes vidéo pour réduire la cadence de balayage
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Ramadout, Benoit. "Capteurs d’images CMOS à haute résolution à Tranchées Profondes Capacitives". Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10068.

Texto completo
Resumen
Les capteurs d'images CMOS ont connu au cours des six dernières années une réduction de la taille des pixels d'un facteur quatre. Néanmoins, cette miniaturisation se heurte à la diminution rapide du signal maximal de chaque pixel et à l'échange parasite entre pixels (diaphotie). C'est dans ce contexte qu'a été développé le Pixel à Tranchées Profondes Capacitives et Grille de Transfert verticale (pixel CDTI+VTG). Basé sur la structure d'un pixel « 4T », il intègre une isolation électrique par tranchées, une photodiode profonde plus volumineuse et une grille verticale permettant le stockage profond et le transfert des électrons. Des procédés de fabrication permettant cette intégration spécifique ont tout d'abord été développés. Parallèlement, une étude détaillée des transistors du pixel, également isolés par CDTI a été menée. Ces tranchées capacitives d'isolation actionnées en tant que grilles supplémentaires ouvrent de nombreuses applications pour un transistor multi-grille compatible avec un substrat massif. Un démonstrateur de 3MPixels intégrant des pixels d'une taille de 1.75*1.75 μm² a été réalisé dans une technologie CMOS 120 nm. Les performances de ce capteur ont pu être déterminées, en particulier en fonction de la tension appliquée aux CDTI. Un bas niveau de courant d'obscurité a tout particulièrement été obtenu grâce à la polarisation électrostatique des tranchées d'isolation
CMOS image sensors showed in the last few years a dramatic reduction of pixel pitch. However pitch shrinking is increasingly facing crosstalk and reduction of pixel signal, and new architectures are now needed to overcome those limitations. Our pixel with Capacitive Deep Trench Isolation and Vertical Transfer Gate (CDTI+VTG) has been developed in this context. Innovative integration of polysilicon-filled deep trenches allows high-quality pixel isolation, vertically extended photodiode and deep vertical transfer ability. First, specific process steps have been developed. In parallel, a thorough study of pixel MOS transistors has been carried out. We showed that capacitive trenches can be also operated as extra lateral gates, which opens promising applications for a multi-gate transistor compatible with CMOS-bulk technology. Finally, a 3MPixel demonstrator integrating 1.75*1.75 μm² pixels has been realized in a CMOS 120 nm technology. Pixel performances could be measured and exploited. In particular, a low dark current level could be obtained thanks to electrostatic effect of capacitive isolation trenches
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Puissant, Anne. "INFORMATION GÉOGRAPHIQUE ET IMAGES A TRÈS HAUTE RÉSOLUTION UTILITÉ ET APPLICATIONS EN MILIEU URBAIN". Phd thesis, Université Louis Pasteur - Strasbourg I, 2003. http://tel.archives-ouvertes.fr/tel-00467474.

Texto completo
Resumen
Depuis le milieu des années 1990, l'INFO-STRATEGIE, c'est-à-dire la stratégie de mise en place de l'Information Géographique, est au cœur des préoccupations des gestionnaires du territoire et des urbanistes. Elle nécessite des données multi-sources, multi-échelles et mises à jour régulièrement à une périodicité adaptée à l'évolution du milieu urbain. Les images d'Observation de la Terre représentent un potentiel important d'acquisition d'IG. Actuellement, le marché connaît une évolution majeure avec la mise en orbite de produits-systèmes Très Haute Résolution (THR) de résolution inférieure à 5 m. Cette évolution technologique débouche sur une abondance de données numériques, sources potentielles d'IG en milieu urbain, modifie les attentes des utilisateurs et transforme leurs applications. Une réflexion en termes de demande (formalisation des besoins) et non plus d'offre est indispensable pour répondre à la multiplication de l'utilisation d'IG à diverses échelles. Par ailleurs, répondre aux besoins des « utilisateurs finaux » (politiques, gestionnaires, techniciens) revient à préciser les ajustements nécessaires à la définition des capacités des nouveaux produits-systèmes. A partir d'une enquête auprès des utilisateurs d'IG, un cahier des charges précisant les besoins en information à grande échelle est établi. Des « niches potentielles d'utilisation » des images métriques sont identifiées. Des tests sont appliqués pour analyser les gains dans l'utilisation de ces nouveaux capteurs. L'un des enjeux de l'augmentation de la résolution spatiale est une nouvelle vision du territoire plus proche de la réalité. Les objets urbains s'individualisent (domaine de l'identification) et sont caractérisés par leurs éléments constitutifs (domaine de l'analyse). Cet apport de détails perturbe les procédures classiques d'extraction automatiques et complexifie l'attribution des objets aux nomenclatures existantes. Le test de plusieurs algorithmes classiques conduit à la formalisation de règles d'identification des objets urbains sur des images THR. Ces règles sont intégrées dans une procédure de classification « orientée-objets ».
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Fallourd, Renaud. "Suivi des glaciers alpins par combinaison d'informations hétérogènes : images SAR Haute Résolution et mesures terrain". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00718596.

Texto completo
Resumen
Les travaux présentés dans cette thèse concernent l'utilisation de données de télédétection inédites pour le suivi des glaciers du massif du Mont Blanc : les images radar à synthèse d'ouverture Haute Résolution (HR) du satellite TerraSAR-X et les prises de vue HR d'un appareil photo numérique automatique. Cette thèse s'attache à montrer l'apport de ces sources d'informations hétérogènes pour mesurer le déplacement de surface des glaciers alpins. Dans cette optique, un examen des méthodes de mesure de déplacement spécifiques à chacun des deux types d'images est réalisé. Deux approches sont alors explorées : la mesure de déplacement monosource dans la géométrie propre à chaque capteur et la mesure de déplacement multisource via des combinaisons intra-capteur et inter-capteur. Alors que l'approche monosource fournit uniquement des mesures 2D du déplacement, les mesures multisources permettent pour la première fois d'estimer des champs de déplacement 3D de la surface des glaciers du Mont Blanc. Les mesures ont été réalisées sur plusieurs séries temporelles d'images couvrant la période 2008-2009 pour quatre glaciers du massif du Mont Blanc (Argentière, Mer de Glace/Leschaux, Bossons et Taconnaz). Dans le contexte du changement climatique, ces mesures de déplacement de surface fournissent une donnée intéressante en glaciologie pour contraindre les modèles numériques d'écoulement et d'évolution des glaciers.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Birjandi, Payam. "Modélisation et extraction des descripteurs intrinsèques des images satellite à haute résolution : approches fondées sur l'analyse en composantes indépendantes". Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00677956.

Texto completo
Resumen
Les images satellites haute résolution contiennent des informations très détaillées comme la forme des bâtiments, les zones industrielles, etc. Leur contenu d'information est hyper riche et très compliqué à extraire. Parmi les paysages différents, les zones urbaines et les structures géométriques sont les paysages plus compliqués pour les différents domaines de recherches. Nous allons extraire des indices intrinsèques des images satellittaires et proposer des descripteurs robustes. En utilisant ces descripteurs, nous serions capables de reconnaitre une variété des paysages, en particulier, les structures géométriques au sein des images satellitaires. L’analyse en composantes indépendantes (L’ACI) est la base théorique de cette thèse. La première contribution de thèse est une investigation sur l’effet de la taille de l’échelle et la dimension d’un système de l’ACI qui est utilisé pour caractérisation des images satellite. Cela nous aide à choisir le framework de notre modèle de l’ACI pour extraire des caractéristiques. On propose deux groupes de descripteurs pour les images satellites haute résolution. Le premier groupe contient deux types des descripteurs qui sont basés sur les coefficients (les sources) de l’ACI ordinaire ou l’ACI topographique et le deuxième contient deux types des descripteurs qui sont basés sur les propriétés des vecteurs de base de l’ACI. En se basant sur notre expérience en l’ACI, nous proposons un autre descripteur qui extrait les caractéristiques des lignes dans les images satellitaires. Finalement, les capacités des descripteurs proposes sont comparées grâce à une classification supervisée basée sur la machine à vecteurs de support
Sub-meter resolution satellite images, capture very detailed information, as for example, shape of buildings, roads, etc. The main purpose of the thesis is to propose descriptors for sub-meter resolution satellite images especially for those who contain geometrical or man-made structures. Independent component analysis (ICA) is a good candidate for this purpose, since previous studies demonstrated that the resulted basis vectors contain some small lines and edges, the important elements in the characterization of geometrical structures. As a basic analysis, a study about the effects of scale size and dimensionality of ICA system on indexing of satellite images is presented and the optimum dimensionality and scale size are found. There are two view points for feature extraction based on ICA. The usual idea is to use the ICA coefficients (ICA sources) and the other is to use the ICA basis vectors related to every image. Based on the first point of view, an ordinary ICA source based approach is proposed for feature extraction. This approach is developed and modified through a topographic ICA system to extract middle level features which leads to a significant improvement in results. Based on other point of view, two methods are proposed. One of them uses the bag of words idea which considers the basis vectors as visual words. Second method uses the lines properties inside the basis vectors to extract features. Also, using the lines properties idea, another method is developed which directly detects the line segments in the images. Finally, the capabilities of proposed descriptors are compared through a supervised classification based on support vector machine (SVM)
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Birjandi, Payam. "Modélisation et Extraction des Descripteurs Intrinsèques des Images Satellite à Haute Résolution: Approches Fondées sur l'Analyse en Composantes Indépendantes". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00677956.

Texto completo
Resumen
Les images satellites haute résolution contiennent des informations très détaillées comme la forme des bâtiments, les zones industrielles, etc. Leur contenu d'information est hyper riche et très compliqué a extraire. Parmi les paysages différents, les zones urbaines et des structures géométriques sont les paysages plus compliques pour les différant domaines de recherches. Nous allons extraire les indices intrinsèques des images satellite et proposer les descripteurs robustes. En utilisant ces descripteurs, nous serions capables de reconnaitre une variété des paysages, en particulier, les structures géométriques au sein des images satellite. L'analyse en composantes indépendantes (l'ACI) est la base théorique de cette thèse. La première contribution de thèse est une investigation sur l'effet de la taille de l'échelle et la dimension d'un système de l'ACI qui est utilisé pour caractérisation des images satellite. Cela nous aide à choisir le framework de notre modèle de l'ACI pour extraire des caractéristiques. On propose deux groupes des descripteurs pour les images satellites haute résolution. Le premier groupe contient deux types des descripteurs qui sont basés sur les coefficients (les sources) de l'ACI ordinaire ou l'ACI topographique et le deuxième contient deux types des descripteurs qui sont basés sur les propriétés des vecteurs de base de l'ACI. En se basant sur notre expérience en l'ACI nous proposons un autre descripteur qui extrait les caractéristiques des lignes dans les images satellites. Finalement, les capacités des descripteurs proposés sont comparés grâce a une classification supervisée basée sur la machine à vecteurs de support.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Voisin, Aurélie. "Classification supervisée d'images d'observation de la Terre à haute résolution par utilisation de méthodes markoviennes". Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00747906.

Texto completo
Resumen
La classification d'images de télédétection incluant des zones urbaines permet d'établir des cartes d'utilisation du sol et/ou de couverture du sol, ou de zones endommagées par des phénomènes naturels (tremblements de terre, inondations...). Les méthodes de classification développées au cours de cette thèse sont des méthodes supervisées fondées sur des modèles markoviens. Une première approche a porté sur la classification d'images d'amplitudes issues de capteurs RSO (radar à synthèse d'ouverture) à simple polarisation et mono-résolution. La méthode choisie consiste à modéliser les statistiques de chacune des classes par des modèles de mélanges finis, puis à intégrer cette modélisation dans un champ de Markov. Afin d'améliorer la classification au niveau des zones urbaines, non seulement affectées par le bruit de chatoiement, mais aussi par l'hétérogénéité des matériaux qui s'y trouvent, nous avons extrait de l'image RSO un attribut de texture qui met en valeur les zones urbaines (typiquement, variance d'Haralick). Les statistiques de cette information texturelle sont combinées à celles de l'image initiale via des copules bivariées. Par la suite, nous avons cherché à améliorer la méthode de classification par l'utilisation d'un modèle de Markov hiérarchique sur quad-arbre. Nous avons intégré, dans ce modèle, une mise à jour de l'a priori qui permet, en pratique, d'aboutir à des résultats moins sensibles bruit de chatoiement. Les données mono-résolution sont décomposées hiérarchiquement en ayant recours à des ondelettes. Le principal avantage d'un tel modèle est de pouvoir utiliser des images multi-résolution et/ou multi-capteur et de pouvoir les intégrer directement dans l'arbre. En particulier, nous avons travaillé sur des données optiques (type GeoEye) et RSO (type COSMO-SkyMed) recalées. Les statistiques à chacun des niveaux de l'arbre sont modélisées par des mélanges finis de lois normales pour les images optiques et de lois gamma généralisées pour les images RSO. Ces statistiques sont ensuite combinées via des copules multivariées et intégrées dans le modèle hiérarchique. Les méthodes ont été testées et validées sur divers jeux de données mono-/multi-résolution RSO et/ou optiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Jibrini, Hassan. "Reconstruction automatique des bâtiments en modèles polyédriques 3-D à partir de données cadastrales vectorisées 2D et d'un couple d'images aériennes à haute résolution". Paris, ENST, 2002. http://www.theses.fr/2002ENST0010.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Soheili, Majd Maryam. "Classification d'images RSO polarimétriques à haute résolution spatiale sur site urbain". Thesis, Paris, CNAM, 2014. http://www.theses.fr/2014CNAM0927/document.

Texto completo
Resumen
Notre recherche vise à évaluer l’apport d’une seule image polarimétrique RSO (Radar à Synthèse d’Ouverture) à haute résolution spatiale pour classifier les surfaces urbaines. Pour cela, nous définissons plusieurs types de toits, de sols et d’objets.Dans un premier temps, nous proposons un inventaire d’attributs statistiques, texturaux et polarimétriques pouvant être utilisés dans un algorithme de classification. Nous étudions les lois statistiques des descripteurs et montrons que la distribution de Fisher est bien adaptée pour la plupart d’entre eux. Dans un second temps, plusieurs algorithmes de classification vectorielle supervisée sont testés et comparés, notamment la classification par maximum de vraisemblance basée sur une distribution gaussienne, ou celle basée sur la distribution de Wishart comme modèle statistique de la matrice de cohérence polarimétrique, ou encore l’approche SVM. Nous proposons alors une variante de l’algorithme par maximum de vraisemblance basée sur une distribution de Fisher, dont nous avons étudié l’adéquation avec l’ensemble de nos attributs. Nous obtenons une nette amélioration de nos résultats avec ce nouvel algorithme mais une limitation apparaît pour reconnaître certains toits. Ainsi, la forme des bâtiments rectangulaires est reconnue par opérations morphologiques à partir de l’image d’amplitude radar. Cette information spatiale est introduite dans le processus de classification comme contrainte. Nous montrons tout l’intérêt de cette information puisqu’elle empêche la confusion de classification entre pixels situés sur des toits plats et des pixels d’arbre. De plus, nous proposons une méthode de sélection des attributs les plus pertinents pour la classification, basée sur l’information mutuelle et une recherche par algorithme génétique. Nos expériences sont menées sur une image polarimétrique avec un pixel de 35 cm, acquise en 2006 par le capteur aéroporté RAMSES de l’ONERA
In this research, our aim is to assess the potential of a one single look high spatial resolution polarimetric radar image for the classification of urban areas. For that purpose, we concentrate on classes corresponding to different kinds of roofs, objects and ground surfaces.At first, we propose a uni-variate statistical analysis of polarimetric and texture attributes, that can be used in a classification algorithm. We perform a statistical analysis of descriptors and show that the Fisher distribution is suitable for most of them. We then propose a modification of the maximum likelihood algorithm based on a Fisher distribution; we train it with all of our attributes. We obtain a significant improvement in our results with the new algorithm, but a limitation appears to recognize some roofs.Then, the shape of rectangular buildings is recognized by morphological operations from the image of radar amplitude. This spatial information is introduced in a Fisher-based classification process as a constraint term and we show that classification results are improved. In particular, it overcomes classification ambiguities between flat roof pixels and tree pixels.In a second step, some well-known algorithms for supervised classification are used. We deal with Maximum Likelihood based on complex Gaussian distribution (uni-variate) and multivariate Complex Gaussian using coherency matrix. Meanwhile, the support vector machine, as a nonparametric method, is used as classification algorithm. Moreover, a feature selection based on Genetic Algorithm using Mutual Information (GA-MI) is adapted to introduce optimal subset to classification method. To illustrate the efficiency of subset selection based on GA-MI, we perform a comparison experiment of optimal subset with different target decompositions based on different scattering mechanisms, including the Pauli, Krogager, Freeman, Yamaguchi, Barnes, Holm, Huynen and the Cloude decompositions. Our experiments are based on an image of a suburban area, acquired by the airborne RAMSES SAR sensor of ONERA, in 2006, with a spatial spacing of 35 cm. The results highlight the potential of such data to discriminate some urban land cover types
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ursani, Ahsan Ahmad. "Fusion multiniveau pour la classification d'images de télédétection à très haute résolution spatiale". Phd thesis, INSA de Rennes, 2010. http://tel.archives-ouvertes.fr/tel-00922645.

Texto completo
Resumen
La télédétection s'avère être une discipline aux nombreuses applications telles que, la défense du territoire, la planification urbaine, la santé et la gestion de l'environnement. La collecte d'informations statistiques sur le rendement des cultures dans un pays, est une tâche importante de la télédétection. L'acquisition et le traitement d'images satellitaires à très haute résolution (THR) fournissent les moyens d'accomplir de telles tâches. Le traitement de ces images satellitaires exige non seulement de la puissance de calcul mais aussi les algorithmes efficaces en segmentation et classification d'images. Cette thèse présente un travail de mise en œuvre de traitements efficaces en analyse, dans le domaine spectral et celui de la texture, sur des images à très haute résolution (THR). Ce travail combine les résultats de ces deux analyses pour une classification améliorée du couvert végétal. L'analyse spectrale présentée ici s'appuie sur une classification non supervisée, tandis que l'analyse de texture adopte une procédure de classification supervisée. La fusion des informations de type contour, issues de l'analyse spectrale non supervisée, et des informations de type bloc, issues de l'analyse texturale supervisée, conduit à des résultats de classification intéressants et encourageants. En guise d'application, la thèse étudie le cas d'un site comportant vergers, cultures maraîchères, vignes, forêts, jachères de la région de Nîmes en France. La contribution apportée ici concerne, d'une part, une amélioration de la méthode des " k-means ", d'autre part, une solution à l'invariance en rotation des caractéristiques texturales issues d'une transformée de Fourier discrète, et enfin une méthode de fusion d'une classification supervisée avec une classification non supervisée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Sublime, Jérémie. "Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA005/document.

Texto completo
Resumen
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide
This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Harant, Olivier. "Méthodes statistiques en télédétection RSO polarimétrique haute résolution pour la modélisation et le suivi temporel des glaciers". Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00863648.

Texto completo
Resumen
Ce travail de thèse propose une méthode générale d'estimation de déplacement de la surface des glaciers à partir d'images RSO polarimétriques à Haute Résolution spatiale. Les caractéristiques nouvelles de ces images offrent un niveau de détail propice au développement de nouvelles méthodes de suivi de texture complémentaires aux méthodes classiques d'interférométrie RADAR difficiles à mettre en oeuvre dans ce contexte. La méthode proposée est basée sur la vraisemblance du rapport d'images RSO multivariées. L'utilisation du rapport d'images RSO et des lois statistiques correspondantes offrent une souplesse adaptée aux caractéristiques des images RSO notamment au caractère multiplicatif du chatoiement. La texture extraite du jeu polarimétrique offre une bonne robustesse aux variations surfaciques de la neige. La question du modèle statistique sous-jacent des images HR est abordé et l'utilisation des lois de Fisher est justifié. Des protocoles de test permettent de souligner la sensibilité de ce type de méthode. Le schéma méthodologique est complété par un ensemble de traitements avancés tels que la segmentation hiérarchique et l'utilisation d'un modèle d'écoulement. Deux sites d'études dans les Alpes françaises et en Antarctique ont permis d'éprouver cette méthode sur l'estimation de déplacement des glaciers d'Argentière et de l'Astrolabe. Une étude préliminaire sur la généralisation multi-capteurs de cette chaîne de traitement est finalement introduite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Rouault-Pic, Sandrine. "Reconstruction en tomographie locale : introduction d'information à priori basse résolution". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005016.

Texto completo
Resumen
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Tison, Céline. "Interférométrie RSO à haute résolution en milieu urbain : application au calcul de MNS urbain". Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000999.

Texto completo
Resumen
Les villes regroupent la moitié de la population mondiale. Le suivi de leur croissance est devenu un enjeu majeur en aménagement du territoire, en écologie ou pour la défense. Ce suivi nécessite une connaissance fine de l'occupation du sol et de la géométrie tridimensionnelle du bâti. L'interférométrie par radar à synthèse d'ouverture (RSO) a fait ses preuves pour mesurer l'élévation du milieu naturel à basse résolution, mais il n'est pas certain que les progrès récents en imagerie RSO à haute résolution offrent des capacités suffisantes pour rendre compte de la complexité du milieu urbain. L'objectif de cette thèse était de répondre à cette question. En raison des réflexions multiples, des discontinuités et de la grande diversité des matériaux du milieu urbain, les images RSO et, a fortiori les interférogrammes, sont difficiles à interpréter. Une inversion classique de l'interférogramme ne fournit pas un Modèle Numérique de Surface exploitable. Nous avons donc proposé un ensemble de traitements de plus haut niveau qui prend en compte toute l'information disponible, aussi bien dans les images que dans leur interférogramme. Notre travail comporte une étape d'analyse du signal RSO et une chaîne de reconstruction 3D. L'analyse est faite à trois échelles: au niveau de la cellule de résolution par simulation électromagnétique, au niveau de l'objet par un découpage en sous-bandes et au niveau de la texture par modélisation statistique. Elle aboutit à l'identification de plusieurs caractéristiques de la scène et au calcul joint de l'élévation en chaque pixel et d'une classification.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Bombrun, Lionel. "Développement d'outils et de méthodes de télédétection spatiale optique et radar nécessaires à la haute résolution spatiale". Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00369350.

Texto completo
Resumen
Le travail de recherche présenté dans ce mémoire de thèse est dédié au développement des méthodes en télédétection radar polarimétrique et interférométrique.

L'interférométrie radar à synthèse d'ouverture renseigne sur la topographie de la zone étudiée ou sur ses déformations. Nous mettons en place des traitements interférométriques pour obtenir un champ de déplacement au sol.

La polarimétrie radar étudie les interactions de l'onde électromagnétique avec le milieu étudié et nous informe sur les propriétés physiques des rétrodiffuseurs. Nous examinons en détail les deux modèles de paramétrisation des vecteurs de rétrodiffusion : le modèle alpha/beta et le modèle TSVM. Nous proposons ensuite d'utiliser la distribution de Fisher pour modéliser la texture dans les images polarimétriques. En utilisant le modèle multiplicatif scalaire, nous dérivons l'expression littérale de la distribution de la matrice de cohérence et nous proposons d'implémenter cette nouvelle distribution dans un algorithme de segmentation hiérarchique.

Les différentes méthodes proposées durant cette thèse ont été appliquées sur des données interférométriques en bande C sur les glaciers et sur des données polarimétriques en bande L dans le milieu urbain.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Blaquière, Ewa. "Descriptions des agrosystèmes hétérogènes à l'aide de mesures satellitaires à très haute résolution spatiale". Toulouse 3, 2004. http://www.theses.fr/2004TOU30099.

Texto completo
Resumen
L'objectif de cette étude a consisté à démontrer l'incidence de l'augmentation de la résolution spatiale sur la cartographie (par l'identification semi-automatique de l'occupation du sol) des zones agricoles ayant des paysages très différents. L'expérimentation a été mise en place sur quatre sites comportant des paysages différents principalement par la forme et la taille de leur parcellaire : deux en France, un en Pologne et un en Allemagne. Les traitements (dont la classification) ont été faits sur sept résolutions spatiales (de 1 à 40 m) sur ces sites avec un objectif de mise en évidence de l'existence ou de l'absence de liens entre la résolution spatiale, la taille et la forme des parcelles et le thème d'occupation du sol. Les résultats de la partie expérimentale nous ont amené à présenter une proposition pour l'amélioration de la classification par l'utilisation des résolutions spatiales appropriées au paysage donné. Cette approche à fait l'objet de tests sur le site de Branszczyk
The main objective of the thesis was to study the influence of spatial resolution of satellite images on the cartography (semi-automatic identification of land cover) of the agricultural areas. In order to complete the study, four areas were tested: two areas in France, one area in Poland and one area in Germany. Those areas were selected to test different types of images for different landscapes characterised by size and form of cultivated parcels. The treatments of the experiment (including classification) was executed on a range of spatial resolutions from 1 to 40 m and all areas with the goal to proving the existence or non-existence of the relationship between the spatial resolution, the size and form of the parcels and the types of the land cover. The final stage is a proposition of improvement of the classification accuracy by the use of spatial resolutions adapted to given landscapes
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Souchay, Henri. "Microscopie électronique à transmission en haute résolution numérique et quantitative : développement d'un outil interactif d'acquisition, simulation et analyse d'images". Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0625.

Texto completo
Resumen
Dans le contexte actuel de la microscopie à transmission quantitative a haute résolution, ce travail se propose de faire le lien entre les manipulations expérimentales et les analyses quantitatives auxquelles elles peuvent donner lieu. Pour y parvenir, trois éléments sont nécessaires : une théorie de la formation de l'image qui puisse donner lieu à des calculs numériques assez rapides ; un détecteur d'images électroniques performant ; et un outil logiciel permettant l'acquisition et le traitement des images, leur comparaison avec des simulations et les outils de base pour des reconstructions. Les principaux aspects de la formation d'image en haute résolution sont repris dans le premier chapitre, avec des rappels importants, et un calcul de l'image développe jusqu'aux effets non linéaires et la cohérence partielle pour des défauts cristallins. Dans le second chapitre, après un état de l'art des capteurs d'images électroniques, la propagation est décrite en détail, notamment les effets de l'étalement du signal sur sa variance. Le résultat montre que le bruit crée par la double scintillation était jusque-là sous-estime. Le développement d'une caméra, associe à ce travail, permet de présenter les méthodes de caractérisation de ce type de capteur, en insistant sur la distinction entre le transfert du bruit et du signal. Enfin, le dernier chapitre présente un cahier des charges pour le logiciel et explicite certains des algorithmes utilises, avant de proposer quelques applications : corrections du transfert dans la camera, alignement d'images, et application de la méthode des phases géométriques
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Sportouche, Hélène. "Extraction et reconstruction des bâtiments en milieu urbain à partir d'images satellitaires optiques et radar à haute résolution". Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00564891.

Texto completo
Resumen
Ces travaux s'inscrivent dans le cadre de l'extraction et de la reconstruction 3D des bâtiments en milieu urbain et semi-urbain, à partir d'images satellitaires optiques et RADAR à haute résolution. L'objectif majeur réside dans le développement d'une chaîne complète de traitements semi-automatiques, capable de fournir une reconstruction simple et fiable des bâtiments parallélépipédiques de la scène, à partir d'une configuration spécifique des données d'entrée, composée d'une image optique et d'une image RADAR, ainsi que d'un modèle numérique de terrain. Cette configuration restreinte, particulièrement délicate à traiter mais susceptible d'intervenir en milieu opérationnel, a fait l'objet de peu de travaux. La proposition d'une démarche dédiée à la gestion d'un tel scénario représente donc un intérêt certain pour plusieurs applications de télédétection. L'enjeu consiste à bénéficier pleinement du contexte de la fusion de données, en exploitant, de façon appropriée, les complémentarités optiques et RADAR, en vue d'une reconstruction de la scène par combinaison d'informations planimétriques et altimétriques. La chaîne proposée se décompose en quatre étapes : détection des bâtiments potentiels en monoscopie optique ; projection et recalage des emprises optiques potentielles dans la donnée RADAR ; estimation des hauteurs et validation des bâtiments sur l'image RADAR ; qualification des bâtis reconstruits. La chaîne complète est mise en œuvre sur des scènes d'étude issues d'un couple de données réelles Quickbird et TerraSAR-X. Les résultats fournis sont analysés qualitativement et quantitativement. Une reconstruction globalement satisfaisante des bâtiments est obtenue
These works take place in the framework of building extraction and 3D building reconstruction in urban and semi-urban areas, from high-resolution optical and SAR satellite images. The main objective is to develop a complete semi-automatic processing chain, able to provide a simple and reliable reconstruction of parallelepipedic buildings on the scene, from a specific configuration of the input data, composed of an optical image and a SAR image, and from a digital terrain model. This restricted configuration, particularly delicate to deal with but likely to happen in operational conditions, has been until now studied only in a few works. Proposing a specific approach to manage such a scenario seems thus very interesting for a lot of applications in remote sensing. We aim to fully benefit from the data fusion context, by exploiting, in an appropriate way, the optical-SAR complementarities for the reconstruction of the scene, through the combination of planimetric and altimetric information. The proposed chain is decomposed into four steps: potential building detection in optical monoscopy; projection and registration of the potential optical footprints into SAR data; height estimation and building validation on the SAR image; qualification of the reconstructed buildings. The whole chain is applied on studied scenes issued from a couple of Quickbird and TerraSAR-X real data. The obtained results are qualitatively and quantitatively analyzed. A globally satisfying reconstruction of the buildings is achieved
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Sportouche, Hélène. "Extraction et reconstruction des bâtiments en milieu urbain à partir d'images satellitaires optiques et radar à haute résolution". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00564891.

Texto completo
Resumen
Ces travaux s'inscrivent dans le cadre de l'extraction et de la reconstruction 3D des bâtiments en milieu urbain et semi-urbain, à partir d'images satellitaires optiques et RADAR à haute résolution. L'objectif majeur réside dans le développement d'une chaîne complète de traitements semi-automatiques, capable de fournir une reconstruction simple et fiable des bâtiments parallélépipédiques de la scène, à partir d'une configuration spécifique des données d'entrée, composée d'une image optique et d'une image RADAR, ainsi que d'un modèle numérique de terrain. Cette configuration restreinte, particulièrement délicate à traiter mais susceptible d'intervenir en milieu opérationnel, a fait l'objet de peu de travaux. La proposition d'une démarche dédiée à la gestion d'un tel scénario représente donc un intérêt certain pour plusieurs applications de télédétection. L'enjeu consiste à bénéficier pleinement du contexte de la fusion de données, en exploitant, de façon appropriée, les complémentarités optiques et RADAR, en vue d'une reconstruction de la scène par combinaison d'informations planimétriques et altimétriques. La chaîne proposée se décompose en quatre étapes : détection des bâtiments potentiels en monoscopie optique ; projection et recalage des emprises optiques potentielles dans la donnée RADAR ; estimation des hauteurs et validation des bâtiments sur l'image RADAR ; qualification des bâtis reconstruits. La chaîne complète est mise en œuvre sur des scènes d'étude issues d'un couple de données réelles Quickbird et TerraSAR-X. Les résultats fournis sont analysés qualitativement et quantitativement. Une reconstruction globalement satisfaisante des bâtiments est obtenue.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Bombrun, Lionel. "Développement d'outils et de méthodes de télédétection spatiale optique et radar nécessaires à la haute résolution spatiale". Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0152.

Texto completo
Resumen
Le travail de recherche présenté dans ce mémoire de thèse est dédié au développement des méthodes en télédétection radar polarimétrique et interférométrique. L'interférométrie radar à synthèse d'ouverture renseigne sur la topographie de la zone étudiée ou sur ses déformations. Nous mettons en place des traitements interférométriques pour obtenir un champ de déplacement au sol. La polarimétrie radar étudie les interactions de l'onde électromagnétique avec le milieu étudié et nous informe sur les propriétés physiques des rétrodiffuseurs. Nous examinons en détail les deux modèles de paramétrisation des vecteurs de rétrodiffusion : le modèle alpha/beta et le modèle TSVM. Nous proposons ensuite d'utiliser la distribution de Fisher pour modéliser la texture dans les images polarimétriques. En utilisant le modèle multiplicatif scalaire, nous dérivons l'expression littérale de la distribution de la matrice de cohérence et nous proposons d'implémenter cette nouvelle distribution dans un algorithme de segmentation hiérarchique. Les différentes méthodes proposées durant cette thèse ont été appliquées sur des données interférométriques en bande C sur les glaciers et sur des données polarimétriques en bande L dans le milieu urbain
This Ph. D. Thesis research work is dedicated to the development of polarimetric and interferometric remote sensing methods. Synthetic aperture radar interferometry estimates the topography of the observed scene or his deformations. Interferometric processings are implemented to derive displacement field. SAR Polarimetry study the interactions between the electromagnetic wave and the scene to characterize the scatterers. Two parametrization model of the target scattering vector are analyzed : the alpha/beta model and the TSVM. Next, we propose to model the texture parameter by a Fisher distribution. Under the scalar product model assumption, we mathematically establish the covariance matrix distribution and we propose to implement this new distribution in a hierarchical segmentation algorithm. All the proposed methods are applied on C-band interferometric SAR data over glaciers and on L-band polarimetric SAR data over urban areas
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Chimi, Chiadjeu Olivier. "Caractérisation probabiliste et synthèse de surfaces agricoles par objets structurants à partir d'images haute résolution". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2012. http://tel.archives-ouvertes.fr/tel-00795582.

Texto completo
Resumen
Ce travail de thèse porte sur la caractérisation probabiliste et la synthèse de surfaces agricoles par objets structurants (agrégats, mottes et creux) à partir d'images de haute résolution. Nous proposons de caractériser les surfaces par deux niveaux de rugosité : le premier niveau correspondant aux mottes, aux agrégats et aux creux et le second niveau étant le substrat sur lequel sont posés ces objets. Disposant d'un algorithme de segmentation par Hiérarchie de Contour (HC) pour l'identification des objets, nous avons mis en évidence l'influence de la méthode d'estimation du gradient sur cet algorithme. Nous avons aussi adapté une approche de morphologie mathématique - la Ligne de Partage des Eaux - pour identifier les différents objets. La méthode de HC sous-estime les dimensions des contours. Pour améliorer ces contours, nous avons développé un algorithme de déplacement de contours basé sur le principe du recuit simulé. Nous montrons que le demi-ellipsoïde est une forme mathématique qui modélise très correctement les objets. Après avoir déterminé les lois de probabilité des paramètres des demi-ellipsoïdes (orientation, axes et hauteur) et étudié leurs dépendances, nous avons mis en place un procédé de génération d'objets posés sur un plan. Nous montrons que les objets générés ont les mêmes statistiques que les objets identifiés sur les images hautes résolution. Nous montrons que l'isotropie des surfaces est liée à l'orientation des objets et que le substrat est corrélé à la surface comportant des objets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Duchêne, Gaspard. "Les systèmes binaires jeunes et leur environnement proche : observations à haute résolution angulaire". Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10083.

Texto completo
Resumen
Le travail presente dans cette these a pour objet l'etude de certaines proprietes des systemes binaires pre-sequence principale : la proportion de ces systemes dans differentes populations, l'existence et les proprietes de disques de matiere en leur sein, et enfin l'interaction de ces disques avec les deux composantes stellaires du systeme. A ces fins, plusieurs techniques d'imagerie a haute resolution angulaire sont utilisees, ainsi que des simulations numeriques de type monte-carlo. La proportion de systemes binaires dans deux amas stellaires ages d'environ deux millions d'annees est determinee, puis une comparaison de ces resultats avec des etudes anterieures est presentee. L'ensemble de ces donnees est compare aux modeles de formation et d'evolution dynamique des amas d'etoiles, et semblent en accord avec l'hypothese selon laquelle le processus de formation aboutit a un proportion initiale de binaires proche de 100%, avant que les nombreuses interactions dans les amas ne detruisent une partie de ces systemes. La spectroscopie de systemes binaires t tauri revele que les deux composantes d'un meme systeme possedent simultanement des disques circumstellaires, ce qui suggere que les environnements des deux composantes n'evoluent pas independamment durant le premier million d'annees. Des images directes de deux disques circumbinaires et deux disques circumstellaires au sein de systemes binaires ont egalement ete obtenues dans le visible, le proche infrarouge et le domaine millimetrique. En couplant ces resultats a l'utilisation d'un code numerique decrivant la diffusion multiple des photons, il est possible d'estimer les proprietes geometriques des disques, ainsi que celles des grains de poussiere qui y sont presents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Badeau, Roland. "Analyse spectrale à haute résolution et décompositions non-négatives appliquées au traitement des signaux de musique". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00945245.

Texto completo
Resumen
Mes travaux de recherche portent sur le traitement des sons et de la musique, dont ils visent à extraire une représentation révélant leurs structures temporelles et spectrales. Diverses applications musicales ont été abordées, allant de la transcription automatique de musique à la séparation de sources, en passant par le codage audio. Une partie importante de ces recherches a été menée dans le cadre du projet ANR DESAM (Décompositions en Éléments Sonores et Applications Musicales), que j'ai coordonné de novembre 2006 à février 2010. Analyse spectrale à haute résolution. La première partie de mes travaux a été initiée dans le cadre de ma thèse, démarrée en septembre 2001 et soutenue en avril 2005, dont la finalité a été l'application des méthodes d'analyse spectrale à haute résolution au traitement des signaux audio et musicaux. Nous avons d'abord généralisé le modèle de signal sous-jacent et la méthode d'estimation et proposé une nouvelle technique de sélection de l'ordre du modèle. Par ailleurs, le nombre élevé de composantes fréquentielles et la forte dynamique spectrale des signaux audio ont nécessité de mettre en oeuvre des prétraitements adéquats et leur non-stationnarité a exigé de développer des méthodes adaptatives permettant de suivre les variations temporelles de chaque composante, en utilisant des algorithmes de poursuite de sous-espace. Ces outils ont été intégrés à la boîte à outils Matlab du projet DESAM et appliqués à la représentation temps-fréquence à haute résolution de signaux audio, à la séparation des composantes tonales et bruitées et à la synthèse avec effets sonores. A la suite de ma thèse, diverses applications musicales de ces méthodes ont été réalisées dans le cadre de collaborations avec des chercheurs et doctorants de laboratoires français ou étrangers : estimation de hauteur de notes de piano (thèse de Valentin Emiya à Télécom ParisTech), estimation de tempo musical (thèse de Miguel Alonso à Télécom ParisTech), analyse des modes couplés d'une harpe de concert (thèse de Jean-Loïc Le Carrou au LAUM, Le Mans) et codage audio (projet DESAM, collaboration avec le LMA, Marseille). D'autres applications ont également été réalisées, comme l'estimation de canal dans le domaine des communications numériques (collaboration avec l'université de Mondragón en Espagne) ou la factorisation de tenseurs structurés (collaboration avec le LSS, Gif-sur-Yvette). Décompositions non-négatives. La deuxième partie de mes travaux constitue une thématique nouvelle de- puis ma thèse, dont les différents aspects ont notamment été abordés avec les cinq doctorants que j'ai co-encadrés (Valentin Emiya, Nancy Bertin, Romain Hennequin, Benoît Fuentes et Antoine Liutkus). Elle s'intéresse à la décomposition de signaux audio à partir d'une représentation spectrale ou d'une représentation temps-fréquence, dans le but d'en extraire des éléments sonores possédant un sens musical, comme des notes de musique ou des accords. Ces décompositions prennent en compte différents critères : non-négativité de la représentation et des éléments sonores, critères psycho-acoustiques, harmonicité du spectre, régularité de l'enveloppe spectrale, régularité de l'enveloppe temporelle, variations temporelles de l'enveloppe spectrale, variations temporelles de la fréquence fondamentale. Elles s'appuient sur des extensions de la factorisation en matrices non-négatives, exprimées dans le formalisme de l'estimation bayésienne, qui permet de contraindre la décomposition en introduisant des modèles paramétriques appropriés ou des distributions a priori des paramètres. Les décompositions sont calculées à l'aide d'algorithmes multiplicatifs, dont nous avons étudié et amélioré les propriétés de convergence, ou d'algorithmes de type espérance-maximisation. Ces outils ont été appliqués à l'estimation de fréquences fondamentales multiples et à la transcription automatique de la musique. Ils ont également été intégrés à la boîte à outils Matlab du projet DESAM et leur évaluation a conduit au développement de la base de données MAPS (MIDI aligned piano sounds). Ils ont enfin été appliqués à la séparation informée des différentes sources sonores mixées dans un enregistrement stéréophonique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Pham, Chi-Hieu. "Apprentisage profond pour la super-résolution et la segmentation d'images médicales". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0124/document.

Texto completo
Resumen
L'objectif de cette thèse est d'étudier le comportement de différentes représentations d'images, notamment apprentissage profond, dans le contexte d'application en imagerie médicale. Le but est de développer une méthode unifiée efficace pour les applications visées que sont la super résolution, la segmentation et la synthèse. La super-résolution est un procès d'estimation d'une image haute-résolution à partir d'une ou plusieurs images basses résolutions. Dans cette thèse, nous nous concentrons sur la super résolutionunique, c'est-à-dire que l'image haute résolution (HR) est estimée par une image basse-résolution (LR) correspondante. Augmenter la résolution de l'image grâce à la super-résolution est la clé d'une compréhension plus précise de l'anatomie. L'application de la super résolution permet d'obtenir des cartes de segmentation plus précises. Étant donné que deux bases de données qui contiennent les images différentes (par exemple, les images d'IRM et les images de CT), la synthèse est un procès d'estimation d'une image qui est approximative aux images dans la base de données de cible à partir d'une image de la base de données de source. Parfois, certains contrastes tissulaires ne peuvent pas être acquis pendant la séance d'imagerie en raison du temps et des coûts élevés ou de l'absence d'appareils. Une solution possible est à utiliser des méthodes de synthèse d'images médicales pour générer les images avec le contraste différent qui est manquée dans le domaine à cible à partir de l'image du domaine donnée. L'objectif des images synthétiques est d'améliorer d'autres étapes du traitement automatique des images médicales telles que la segmentation, la super-résolution ou l'enregistrement. Dans cette thèse, nous proposons les réseaux neurones pour la super résolutionet la synthèse d'image médicale. Les résultats démontrent le potentiel de la méthode que nous proposons en ce qui concerne les applications médicales pratiques
In this thesis, our motivation is dedicated to studying the behaviors of different image representations and developing a method for super-resolution, cross-modal synthesis and segmentation of medical imaging. Super-Resolution aims to enhance the image resolution using single or multiple data acquisitions. In this work, we focus on single image super-resolution (SR) that estimates the high-resolution (HR) image from one corresponding low-resolution (LR) image. Increasing image resolution through SR is a key to more accurate understanding of the anatomy. The applications of super-resolution have been shown that applying super-resolution techniques leads to more accurate segmentation maps. Sometimes, certain tissue contrasts may not be acquired during the imaging session because of time-consuming, expensive costor lacking of devices. One possible solution is to use medical image cross-modal synthesis methods to generate the missing subject-specific scans in the desired target domain from the given source image domain. The objective of synthetic images is to improve other automatic medical image processing steps such as segmentation, super-resolution or registration. In this thesis, convolutional neural networks are applied to super-resolution and cross-modal synthesis in the context of supervised learning. In addition, an attempt to apply generative adversarial networks for unpaired cross-modal synthesis brain MRI is described. Results demonstrate the potential of deep learning methods with respect to practical medical applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Elbergui, Ayda. "Amélioration des techniques de reconnaissance automatique de mines marines par analyse de l'écho à partir d'images sonar haute résolution". Thesis, Brest, 2013. http://www.theses.fr/2013BRES0042/document.

Texto completo
Resumen
La classification des cibles sous-marines est principalement basée sur l'analyse de l'ombre acoustique. La nouvelle génération des sonars d'imagerie fournit une description plus précise de la rétrodiffusion de l'onde acoustique par les cibles. Par conséquent, la combinaison de l'analyse de l'ombre et de l'écho est une voie prometteuse pour améliorer la classification automatique des cibles. Quelques systèmes performants de classification automatique des cibles s'appuient sur un modèle pour faire l'apprentissage au lieu d'utiliser uniquement des réponses expérimentales ou simulées de cibles pour entraîner le classificateur. Avec une approche basée modèle, un bon niveau de performance en classification peut être obtenu si la modélisation de la réponse acoustique de la cible est suffisamment précise. La mise en œuvre de la méthode de classification a nécessité de modéliser avec précision la réponse acoustique des cibles. Le résultat de cette modélisation est un simulateur d'images sonar (SIS). Comme les sonars d'imagerie fonctionnent à haute et très haute fréquence le modèle est basé sur le lancer de rayons acoustiques. Plusieurs phénomènes sont pris en compte pour augmenter le réalisme de la réponse acoustique (les effets des trajets multiples, l'interaction avec le fond marin, la diffraction, etc.). La première phase du classificateur utilise une approche basée sur un modèle. L'information utile dans la signature acoustique de la cible est nommée « A-scan ». Dans la pratique, l'A-scan de la cible détectée est comparé à un ensemble d'A-scans générés par SIS dans les mêmes conditions opérationnelles. Ces gabarits (A-scans) sont créés en modélisant des objets manufacturés de formes simples et complexes (mines ou non mines). Cette phase intègre un module de filtrage adapté pour permettre un résultat de classification plus souple capable de fournir un degré d'appartenance en fonction du maximum de corrélation obtenu. Avec cette approche, l'ensemble d'apprentissage peut être enrichi afin d'améliorer la classification lorsque les classes sont fortement corrélées. Si la différence entre les coefficients de corrélation de l'ensemble de classes les plus probables n'est pas suffisante, le résultat est considéré ambigu. Une deuxième phase est proposée afin de distinguer ces classes en ajoutant de nouveaux descripteurs et/ou en ajoutant davantage d'A-scans dans la base d'apprentissage et ce, dans de nouvelles configurations proches des configurations ambiguës. Ce processus de classification est principalement évalué sur des données simulées et sur un jeu limité de données réelles. L'utilisation de l'A-scan a permis d'atteindre des bonnes performances de classification en mono-vue et a amélioré le résultat de classification pour certaines ambiguïtés récurrentes avec des méthodes basées uniquement sur l'analyse d'ombre
Underwater target classification is mainly based on the analysis of the acoustic shadows. The new generation of imaging sonar provides a more accurate description of the acoustic wave scattered by the targets. Therefore, combining the analysis of shadows and echoes is a promising way to improve automated target classification. Some reliable schemes for automated target classification rely on model based learning instead of only using experimental samples of target acoustic response to train the classifier. With this approach, a good performance level in classification can be obtained if the modeling of the target acoustic response is accurate enough. The implementation of the classification method first consists in precisely modeling the acoustic response of the targets. The result of the modeling process is a simulator called SIS (Sonar Image Simulator). As imaging sonars operate at high or very high frequency the core of the model is based on acoustical ray-tracing. Several phenomena have been considered to increase the realism of the acoustic response (multi-path propagation, interaction with the surrounding seabed, edge diffraction, etc.). The first step of the classifier consists of a model-based approach. The classification method uses the highlight information of the acoustic signature of the target called « A-scan ». This method consists in comparing the A-scan of the detected target with a set of simulated A-scans generated by SIS in the same operational conditions. To train the classifier, a Template base (A-scans) is created by modeling manmade objects of simple and complex shapes (Mine Like Objects or not). It is based on matched filtering in order to allow more flexible result by introducing a degree of match related to the maximum of correlation coefficient. With this approach the training set can be extended increasingly to improve classification when classes are strongly correlated. If the difference between the correlation coefficients of the most likely classes is not sufficient the result is considered ambiguous. A second stage is proposed in order to discriminate these classes by adding new features and/or extending the initial training data set by including more A-scans in new configurations derived from the ambiguous ones. This classification process is mainly assessed on simulated side scan sonar data but also on a limited data set of real data. The use of A-scans have achieved good classification performances in a mono-view configuration and can improve the result of classification for some remaining confusions using methods only based on shadow analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Chesnel, Anne-Lise. "Quantification de dégâts sur le bâti liés aux catastrophes majeures par images satellite multimodales très haute résolution". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004211.

Texto completo
Resumen
Lors d'une catastrophe majeure, il est nécessaire de connaître rapidement l'importance des dégâts sur les bâtiments. Actuellement, cette quantification de dégâts se fait manuellement par comparaison visuelle d'images satellite. Les méthodes automatiques sont immatures ; leurs performances étant rarement évaluées, elles ne sont pas utilisées par les opérationnels. Nous proposons un protocole standard d'évaluation des performances de méthodes de quantification de dégâts. Il s'appuie sur des bases de données de référence obtenues pour cinq cas de catastrophes variées. Celles-ci contiennent pour chaque bâtiment l'emprise de son toit dans chaque image, ainsi qu'un degré de dégâts. Le protocole permet de quantifier les performances d'une méthode et de confronter ses résultats à d'autres. Disposant de ce protocole d'évaluation, nous proposons une méthode de quantification de dégâts à partir d'un couple d'images satellites panchromatiques de très haute résolution (THR) spatiale et d'un ensemble d'objets d'intérêt définis dans l'image de référence. La méthode développée doit pouvoir conduire à des résultats satisfaisants et reproductibles en utilisant des images de modalités différentes, et être automatisée au mieux. Les dégâts sur les bâtiments sont quantifiés par l'amplitude des changements sur leurs toits. Pour comparer ces derniers, ils doivent être alignés. Le recalage géométrique des données THR est un problème complexe non résolu ; une nouvelle méthode adaptée à notre problème est développée et évaluée. Elle aboutit à des résultats généralement satisfaisants pour notre application. Des indices de changements sont ensuite extraits. Deux coefficients de corrélation et des indices de texture obtenus par filtrage sont extraits, et un degré de dégâts est attribué à chacun des bâtiments par classification supervisée. L'impact des différences de modalité des images sur les performances de notre méthode est évalué. La méthode proposée est rapide, en grande partie généralisable et robuste à l'utilisation d'images THR de différentes résolutions ou issues de couples multicapteurs ; le paramètre influant est le B/H du couple.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Le, Bastard Cédric. "Apport de techniques de traitement du signal super et haute résolution à l'amélioration des performances du radar-chaussée". Phd thesis, UNIVERSITE DE NANTES, 2007. http://tel.archives-ouvertes.fr/tel-00969109.

Texto completo
Resumen
Dans le domaine du génie civil, l'auscultation de couches minces de chaussée (de l'ordre de 2 cm d'épaisseur) est mal résolue par les techniques radar de Contrôle Non Destructif. Dans ce contexte, cette thèse a pour objectif d'améliorer, d'un facteur 3 à 6, la résolution temporelle des radars actuels par des techniques de traitement du signal dites super et haute résolution. Dans un premier temps, les méthodes super et haute résolution les plus connues de la littérature (LSMYW, MUSIC, ESPRIT, Min-Norm) sont évaluées à partir de signaux simulés. Les résultats montrent les variations de l'erreur quadratique moyenne sur l'épaisseur estimée de chaussée, en fonction du rapport signal sur bruit et du retard différentiel entre échos. Un critère de précision sur la mesure d'épaisseur permet de déduire la limite de résolution temporelle de chacun des algorithmes. Pour des échos fortement ou totalement corrélés, on propose une optimisation du paramétrage de la technique de moyennage en sous-bande de fréquences. Quel que soit le niveau de corrélation, la limite de résolution temporelle obtenue permet de montrer la faisabilité de l'application. Dans un second temps, le document se focalise sur l'amélioration de techniques haute résolution de complexité calculatoire plus réduite. Tout d'abord, une version généralisée de l'algorithme ESPRIT (G-ESPRIT) est proposée, pour tenir compte de la forme de l'impulsion radar et des caractéristiques d'un bruit quelconque. Ensuite, deux méthodes linéaires à sous-espaces (OPM et SWEDE) sont introduites. Une version polynomiale d'OPM (root-OPM) permettant d'accélérer la recherche des retards de propagation est proposée. La méthode SWEDE est transposée à l'estimation de retards ; une nouvelle procédure de blanchiment permettant d'améliorer ses performances est également suggérée (FBD-SWEDE). Puis, de nouveaux algorithmes sont développés, combinant les avantages calculatoires des algorithmes SWEDE et ESPRIT (ESPRITWED, AV-ESPRITWED, G-ESPRITWED). Enfin, les méthodes de traitement présentées dans ce document sont expérimentées sur des signaux d'un radar impulsionnel et à sauts de fréquence, mesurés sur un 'milieu-modèle' monocouche et bicouche. La mise en oeuvre des algorithmes est détaillée. Les résultats permettent d'une part de valider les résultats théoriques et de montrer la faisabilité de la mesure de couches minces de chaussée à l'aide d'un radar de 2 GHz de largeur de bande.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Massip, Pierre. "Fusion de données : prise en compte des caractéristiques liées à l'imageur lors de la synthèse d'images multispectrales à haute résolution spatiale". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00564814.

Texto completo
Resumen
Les satellites d'observation de la Terre (Quickbird, Ikonos, SPOT-5, PLÉIADES) fournissent des images de deux types : soit une image panchromatique à haute résolution spatiale mais basse résolution spectrale, soit une image multispectrale dont la résolution spatiale est inférieure d'un rapport 2 ou 4, mais avec une bonne résolution spectrale. Des méthodes permettant la fusion de ces deux types d'images existent, cependant il est encore possible d'améliorer la qualité des images synthétisées. Nos travaux visent à améliorer la qualité des images synthétisées par une meilleure prise en compte des caractéristiques de l'imageur comme ; la Fonction de Transfert de Modulation (FTM) et l'échantillonnage. Les travaux que nous avons menés sur l'impact du repliement de spectre présent dans les images MS ont mis en évidence que l'absence de repliement permet la suppression des artefacts visuels importants, mais les outils usuels d'évaluation de la qualité des images de fusion ne permettent pas la quantification des performances. La FTM caractérise la capacité de l'instrument à représenter un contraste en fonction de la fréquence spatiale. Celle-ci diffère entre les images PAN et MS. Nous avons proposé à partir de méthodes existantes, deux méthodes de fusion permettant de mieux prendre en compte la FTM et ainsi d'améliorer la qualité et les caractéristiques de l'image synthétisée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Matteo, Lionel. "De l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4099.

Texto completo
Resumen
Les failles sismogéniques sont la source des séismes. L'étude de leurs propriétés nous informe donc sur les caractéristiques des forts séismes qu'elles peuvent produire. Les failles sont des objets 3D qui forment des réseaux complexes incluant une faille principale et une multitude de failles et fractures secondaires qui "découpent" la roche environnante à la faille principale. Mon objectif dans cette thèse a été de développer des approches pour aider à étudier cette fracturation secondaire intense. Pour identifier, cartographier et mesurer les fractures et les failles dans ces réseaux, j'ai adressé deux défis :1) Les failles peuvent former des escarpements topographiques très pentus à la surface du sol, créant des "couloirs" ou des canyons étroits et profond où la topographie et donc, la trace des failles, peut être difficile à mesurer en utilisant des méthodologies standard (comme des acquisitions d'images satellites optiques stéréo et tri-stéréo). Pour répondre à ce défi, j'ai utilisé des acquisitions multi-stéréos avec différentes configurations (différents angles de roulis et tangage, différentes dates et modes d'acquisitions). Notre base de données constituée de 37 images Pléiades dans trois sites tectoniques différents dans l'Ouest américain (Valley of Fire, Nevada ; Granite Dells, Arizona ; Bishop Tuff, California) m'a permis de tester différentes configurations d'acquisitions pour calculer la topographie avec trois approches différentes. En utilisant la solution photogrammétrique open-source Micmac (IGN ; Rupnik et al., 2017), j'ai calculé la topographie sous la forme de Modèles Numériques de Surfaces (MNS) : (i) à partir de combinaisons de 2 à 17 images Pléiades, (ii) en fusionnant des MNS calculés individuellement à partir d'acquisitions stéréo et tri-stéréo, évitant alors l'utilisant d'acquisitions multi-dates et (iii) en fusionnant des nuages de points calculés à partir d'acquisitions tri-stéréos en suivant la méthodologie multi-vues développée par Rupnik et al. (2018). J’ai aussi combiné, dans une dernière approche (iv), des acquisitions tri-stéréos avec la méthodologie multi-vues stéréos du CNES/CMLA (CARS) développé par Michel et al. (2020), en combinant des acquisitions tri-stéréos. A partir de ces quatre approches, j'ai calculé plus de 200 MNS et mes résultats suggèrent que deux acquisitions tri-stéréos ou une acquisition stéréo combinée avec une acquisition tri-stéréo avec des angles de roulis opposés permettent de calculer les MNS avec la surface topographique la plus complète et précise.2) Couramment, les failles sont cartographiées manuellement sur le terrain ou sur des images optiques et des données topographiques en identifiant les traces curvilinéaires qu'elles forment à la surface du sol. Néanmoins, la cartographie manuelle demande beaucoup de temps ce qui limite notre capacité à produire cartographies et des mesures complètes des réseaux de failles. Pour s'affranchir de ce problème, j'ai adopté une approche d'apprentissage profond, couramment appelé un réseau de neurones convolutifs (CNN) - U-Net, pour automatiser l'identification et la cartographie des fractures et des failles dans des images optiques et des données topographiques. Volontairement, le modèle CNN a été entraîné avec une quantité modérée de fractures et failles cartographiées manuellement à basse résolution et dans un seul type d'images optiques (photographies du sol avec des caméras classiques). A partir d'un grand nombre de tests, j'ai sélectionné le meilleur modèle, MRef et démontre sa capacité à prédire des fractures et des failles précisément dans données optiques et topographiques de différents types et différentes résolutions (photographies prises au sol, avec un drone et par satellite). Le modèle MRef montre de bonnes capacités de généralisations faisant alors de ce modèle un bon outil pour cartographie rapidement et précisément des fractures et des failles dans des images optiques et des données topographiques
Seismogenic faults are the source of earthquakes. The study of their properties thus provides information on some of the properties of the large earthquakes they might produce. Faults are 3D features, forming complex networks generally including one master fault and myriads of secondary faults and fractures that intensely dissect the master fault embedding rocks. I aim in my thesis to develop approaches to help studying this intense secondary faulting/fracturing. To identify, map and measure the faults and fractures within dense fault networks, I have handled two challenges:1) Faults generally form steep topographic escarpments at the ground surface that enclose narrow, deep corridors or canyons, where topography, and hence fault traces, are difficult to measure using the available standard methods (such as stereo and tri-stereo of optical satellite images). To address this challenge, I have thus used multi-stéréo acquisitions with different configuration such as different roll and pitch angles, different date of acquisitions and different mode of acquisitions (mono and tri-stéréo). Our dataset amounting 37 Pléiades images in three different tectonic sites within Western USA (Valley of Fire, Nevada; Granite Dells, Arizona; Bishop Tuff, California) allow us to test different configuration of acquisitions to calculate the topography with three different approaches. Using the free open-source software Micmac (IGN ; Rupnik et al., 2017), I have calculated the topography in the form of Digital Surface Models (DSM): (i) with the combination of 2 to 17 Pleiades images, (ii) stacking and merging DSM built from individual stéréo or tri-stéréo acquisitions avoiding the use of multi-dates combinations, (iii) stacking and merging point clouds built from tri-stereo acquisitions following the multiview pipeline developped by Rupnik et al., 2018. We used the recent multiview stereo pipeling CARS (CNES/CMLA) developped by Michel et al., 2020 as a last approach (iv), combnining tri-stereo acquisitions. From the four different approaches, I have thus calculated more than 200 DSM and my results suggest that combining two tri-stéréo acquisitions or one stéréo and one tri-stéréo acquisitions with opposite roll angles leads to the most accurate DSM (with the most complete and precise topography surface).2) Commonly, faults are mapped manually in the field or from optical images and topographic data through the recognition of the specific curvilinear traces they form at the ground surface. However, manual mapping is time-consuming, which limits our capacity to produce complete representations and measurements of the fault networks. To overcome this problem, we have adopted a machine learning approach, namely a U-Net Convolutional Neural Network, to automate the identification and mapping of fractures and faults in optical images and topographic data. Intentionally, we trained the CNN with a moderate amount of manually created fracture and fault maps of low resolution and basic quality, extracted from one type of optical images (standard camera photographs of the ground surface). Based on the results of a number of performance tests, we select the best performing model, MRef, and demonstrate its capacity to predict fractures and faults accurately in image data of various types and resolutions (ground photographs, drone and satellite images and topographic data). The MRef predictions thus enable the statistical analysis of the fault networks. MRef exhibits good generalization capacities, making it a viable tool for fast and accurate extraction of fracture and fault networks from image and topographic data
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Sibarita, Jean-Baptiste. "Formation et restauration d'images en microscopie à rayons : application à l'observation d'échantillons biologiques". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00345364.

Texto completo
Resumen
Technique récente, la microscopie à rayons X offre aujourd'hui une résolution spatiale supérieure à celle de la microscopie optique (20 nm contre 200 nm en microscopie optique confocal laser). Elle offre également un meilleur pouvoir de pénétration que la microscopie électronique (jusqu'à 10 μm contre 1 μm en microscopie électronique à moyenne et haute tension). Ainsi, la microscopie à rayons X mous (longueurs d'onde comprises entre 2,4 et 4,3 nanomètres) permet l'analyse à haute résolution en 2 ou 3 dimensions d'échantillons biologiques placés dans des conditions proches de leur milieu naturel (contrairement aux microscopes électroniques classiques qui imposent une préparation des échantillons). Cependant, la réduction de la dose absorbée par l'échantillon nécessite des durées d'expositions aussi courtes que possible. Or, effectuer une acquisition avec peu de photons se fait au détriment du rapport signal sur bruit des images. Un de nos objectifs a été le développement d'outils pour l'amélioration et la restauration de ces images. La première partie de nos travaux a consisté à déterminer la fonction de transfert du microscope à rayons X en transmission et à comparer les résultats obtenus avec le modèle théorique de la formation des images. Dans la seconde partie, nous avons complété les modèles existants liant le nombre de photons et le contraste, en prenant en compte le mode de formation des images dans le microscope. La troisième partie de ces travaux concerne le développement de techniques de traitement numérique des images dans le but d'améliorer et de restaurer des images obtenues par microscopie à rayons X avec de faibles temps d'exposition. Ces processus ont été appliqués à l'étude par microscopie à rayons X de différents types d'échantillons biologiques
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Rougier, Simon. "Apport des images satellites à très haute résolution spatiale couplées à des données géographiques multi-sources pour l’analyse des espaces urbains". Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAH019/document.

Texto completo
Resumen
Les villes sont confrontées à de nombreuses problématiques environnementales. Leurs gestionnaires ont besoin d'outils et d'une bonne connaissance de leur territoire. Un objectif est de mieux comprendre comment s'articulent les trames grise et verte pour les analyser et les représenter. Il s'agit aussi de proposer une méthodologie pour cartographier la structure urbaine à l'échelle des tissus en tenant compte de ces trames. Les bases de données existantes ne cartographient pas la végétation de manière exhaustive. Ainsi la première étape est d'extraire la végétation arborée et herbacée à partir d'images satellites Pléiades par une analyse orientée-objet et une classification par apprentissage actif. Sur la base de ces classifications et de données multi-sources, la cartographie des tissus se base sur une démarche d'extraction de connaissances à partir d'indicateurs issus de l'urbanisme et de l'écologie du paysage. Cette méthodologie est construite sur Strasbourg puis appliquée à Rennes
Climate change presents cities with significant environmental challenges. Urban planners need decision-making tools and a better knowledge of their territory. One objective is to better understand the link between the grey and the green infrastructures in order to analyse and represent them. The second objective is to propose a methodology to map the urban structure at urban fabric scale taking into account the grey and green infrastructures. In current databases, vegetation is not mapped in an exhaustive way. Therefore the first step is to extract tree and grass vegetation using Pléiades satellite images using an object-based image analysis and an active learning classification. Based on those classifications and multi-sources data, an approach based on knowledge discovery in databases is proposed. It is focused on set of indicators mostly coming from urbanism and landscape ecology. The methodology is built on Strasbourg and applied on Rennes to validate and check its reproducibility
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Crăciun, Paula. "Géométrie stochastique pour la détection et le suivi d'objets multiples dans des séquences d'images haute résolution de télédétection". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4095/document.

Texto completo
Resumen
Dans cette thèse, nous combinons les outils de la théorie des probabilités et de la géométrie stochastique pour proposer de nouvelles solutions au problème de la détection et le suivi d'objets multiples dans des séquences d'images haute résolution. Nous créons un cadre fondé sur des modèles de processus ponctuels marqués spatio-temporels pour détecter et suivre conjointement plusieurs objets dans des séquences d'images. Nous proposons l'utilisation de formes paramétriques simples pour décrire l'apparition de ces objets. Nous construisons de nouveaux modèles fondés sur des énergies dédiées constituées de plusieurs termes qui tiennent compte à la fois l'attache aux données et les contraintes physiques telles que la dynamique de l'objet, la persistance de la trajectoire et de l'exclusion mutuelle. Nous construisons un schéma d'optimisation approprié qui nous permet de trouver des minima locaux de l'énergie hautement non-convexe proposée qui soient proche de l'optimum global. Comme la simulation de ces modèles requiert un coût de calcul élevé, nous portons notre attention sur les dernières mises en oeuvre de techniques de filtrage pour le suivi d'objets multiples, qui sont connues pour être moins coûteuses en calcul. Nous proposons un échantillonneur hybride combinant le filtre de Kalman avec l'échantillonneur MCMC à sauts réversibles. Des techniques de calcul de haute performance sont également utilisées pour augmenter l'efficacité de calcul de notre méthode. Nous fournissons une analyse en profondeur du cadre proposé sur la base de plusieurs métriques classiques de suivi d'objets et de l'efficacité de calcul
In this thesis, we combine the methods from probability theory and stochastic geometry to put forward new solutions to the multiple object detection and tracking problem in high resolution remotely sensed image sequences. We create a framework based on spatio-temporal marked point process models to jointly detect and track multiple objects in image sequences. We propose the use of simple parametric shapes to describe the appearance of these objects. We build new, dedicated energy based models consisting of several terms that take into account both the image evidence and physical constraints such as object dynamics, track persistence and mutual exclusion. We construct a suitable optimization scheme that allows us to find strong local minima of the proposed highly non-convex energy. As the simulation of such models comes with a high computational cost, we turn our attention to the recent filter implementations for multiple object tracking, which are known to be less computationally expensive. We propose a hybrid sampler by combining the Kalman filter with the standard Reversible Jump MCMC. High performance computing techniques are also used to increase the computational efficiency of our method. We provide an in-depth analysis of the proposed framework based on standard multiple object tracking metrics and computational efficiency
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Badeau, Roland. "Méthodes à haute résolution pour l'estimation et le suivi de sinusoïdes modulées : Application aux signaux de musique". Phd thesis, Télécom ParisTech, 2005. http://tel.archives-ouvertes.fr/tel-00009321.

Texto completo
Resumen
Dans le cadre du traitement de la parole et des signaux de musique, la partie tonale d'une grande variété de sons est souvent représentée comme une somme de sinusoïdes à paramètres lentement variables. La transformée de Fourier reste un outil privilégié pour estimer les paramètres de ce modèle. Cela est dû à sa robustesse et à l'existence d'algorithmes rapides. En revanche, elle présente une résolution fréquentielle limitée. Les méthodes d'analyse spectrale à Haute Résolution (HR) s'affranchissent de cette limite en exploitant la structure particulière du modèle de signal. Elles restent cependant peu utilisées dans le cadre du traitement du signal audio, notamment en raison de leur coût de calcul élevé. La réduction de cette complexité est l'une des principales contributions de cette thèse. Afin de suivre les variations temporelles des paramètres, des algorithmes rapides de poursuite de sous-espaces (baptisés FAPI, YAST et SWASVD), ainsi qu'une version adaptative de la méthode ESPRIT sont développés. Leur application à des signaux audio n'est pas immédiate, en raison du nombre de composantes sinusoïdales inconnu a priori, et de difficultés inhérentes à la nature et à la variété de ces signaux. Des prétraitements spécifiques sont mis au point afin d'assurer la robustesse de l'analyse HR, et une méthode originale de sélection de l'ordre de modélisation est proposée. Enfin, une partie du document est consacrée à l'estimation de mélanges d'exponentielles complexes modulées par des polynômes, qui résultent de la présence de pôles multiples. Cette étude débouche sur le développement d'une version généralisée de la méthode ESPRIT et sur l'analyse statistique de ses performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Rougier, Simon. "Apport des images satellites à très haute résolution spatiale couplées à des données géographiques multi-sources pour l’analyse des espaces urbains". Electronic Thesis or Diss., Strasbourg, 2016. http://www.theses.fr/2016STRAH019.

Texto completo
Resumen
Les villes sont confrontées à de nombreuses problématiques environnementales. Leurs gestionnaires ont besoin d'outils et d'une bonne connaissance de leur territoire. Un objectif est de mieux comprendre comment s'articulent les trames grise et verte pour les analyser et les représenter. Il s'agit aussi de proposer une méthodologie pour cartographier la structure urbaine à l'échelle des tissus en tenant compte de ces trames. Les bases de données existantes ne cartographient pas la végétation de manière exhaustive. Ainsi la première étape est d'extraire la végétation arborée et herbacée à partir d'images satellites Pléiades par une analyse orientée-objet et une classification par apprentissage actif. Sur la base de ces classifications et de données multi-sources, la cartographie des tissus se base sur une démarche d'extraction de connaissances à partir d'indicateurs issus de l'urbanisme et de l'écologie du paysage. Cette méthodologie est construite sur Strasbourg puis appliquée à Rennes
Climate change presents cities with significant environmental challenges. Urban planners need decision-making tools and a better knowledge of their territory. One objective is to better understand the link between the grey and the green infrastructures in order to analyse and represent them. The second objective is to propose a methodology to map the urban structure at urban fabric scale taking into account the grey and green infrastructures. In current databases, vegetation is not mapped in an exhaustive way. Therefore the first step is to extract tree and grass vegetation using Pléiades satellite images using an object-based image analysis and an active learning classification. Based on those classifications and multi-sources data, an approach based on knowledge discovery in databases is proposed. It is focused on set of indicators mostly coming from urbanism and landscape ecology. The methodology is built on Strasbourg and applied on Rennes to validate and check its reproducibility
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Bihan-Poudec, Yann. "IRM de diffusion cérébrale à haute résolution : développements des méthodes de reconstruction et de post-traitement". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1299.

Texto completo
Resumen
L'imagerie de diffusion (IRMd) est une méthode unique permettant d'étudier la microstructure cérébrale et la connectivité du cerveau de manière non-invasive. Cependant, la faible résolution et la qualité de cette imagerie restreint son utilisation dans certaines applications. L'objectif de cette thèse est de développer l'IRMd cérébrale à très haute résolution sur un modèle de macaque anesthésié au moyen d'une séquence d'imagerie 3D écho-planaire segmentée (3D-msEPI) à 3T. Après une étape de développement de la reconstruction et du post-traitement des données, nous avons réalisé des images de diffusion sur le cerveau de macaque à une résolution spatiale isotrope de 0.5mm. Cette résolution nous a permis de délimiter et caractériser les structures fines comme les sous-couches de l'hippocampe ou la matière blanche superficielle, qui sont indétectables avec des séquences classiques. Cependant, cette méthode se révèle vulnérable aux mouvements élastiques des tissus cérébraux induits par les pulsations cardio-vasculaires. Une stratégie de synchronisation de l'acquisition sur celle-ci nous a permis de caractériser leurs effets sur l'IRMd à très haute résolution chez le singe anesthésié. Ces effets se caractérisent par des artefacts de ghosting et des pertes de signal qui corrompent les images, le tenseur et la tractographie dans des zones spécifiques du cerveau. La synchronisation nous a ainsi permis de réaliser une imagerie de diffusion cérébrale de macaque à des résolutions spatiales et des pondérations en diffusion très élevées jamais atteintes auparavant. Ces résultats préliminaires démontrent le potentiel de notre méthode pour les applications neuroscientifiques et médicales chez l'homme
Diffusion imaging (dMRI) is a unique method for studying brain microstructure and brain connectivity in a non-invasive way. However, the low resolution and quality of this imaging restricts its use in some applications. The aim of this thesis is to develop very high resolution cerebral MRI on an anesthetized macaque model on a 3T scanner using a segmented 3D echo-planar 3D imaging sequence (3D-msEPI). After a stage of development of the reconstruction and post-processing of the data, we made diffusion images on the macaque brain at an isotropic spatial resolution of 0.5mm. This resolution allowed us to delineate and characterize fine structures such as hippocampal sublayers or superficial white matter, which are undetectable with classical sequences. However, this method is vulnerable to the elastic movements of the brain tissue induced by the cardiovascular pulsations. A strategy of synchronization of the acquisition on this one allowed us to characterize their effects on the very high resolution MRI in the anesthetized monkey. These effects are characterized by ghosting artifacts and signal losses that corrupt images, tensor, and tractography in specific areas of the brain. The synchronization allowed us to realize macaque brain diffusion imaging at spatial resolutions and very high diffusion weights never reached before. These preliminary results demonstrate the potential of our method for neuroscientific and medical applications in humans
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía