Segui questo link per vedere altri tipi di pubblicazioni sul tema: Cartographie automatisée.

Tesi sul tema "Cartographie automatisée"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Cartographie automatisée".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Noël, François. "Cartographie semi-automatisée des chutes de pierres le long d'infrastructures linéaires". Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27124.

Testo completo
Abstract (sommario):
La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.
The detailed characterization of large area is a challenging task because time and resources are frequently limited. This Master’s thesis is part of the ParaChute research project. The aim of this project is to develop a rockfall susceptibility rating system along linear infrastructures. A partially automated method has been developed to facilitate field works planning while optimizing time and resources. It is mainly based on 3D rockfall simulations carried out systematically and efficiently on every rock slopes located nearby the infrastructure to help identify potential hazardous natural cliffs. Automation tools were developed to allow the realization of simulations over large area. The proposed method also uses the software Rockyfor3D and only requires surface elevation model obtained from airborne LiDAR survey as input data. However, other data, such as orthophotos, were used for calibration. The method was applied along the ArcelorMittal Infrastructures Canada railway. The covered zone starts near Port-Cartier (Québec) and extends 260 km north along the ArcelorMittal Infrastructures Canada railway up to the Groulx Mountains. In this Master’s thesis, a partially automated method that helps to choose on which areas to focus field work by telling if there is a possibility for a block to reach the linear infrastructure is detailed.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Frédéricque, Benoit. "Saisie photogrammétrique multi-représentation de bâtiments : une approche Semi-Automatisée Initialisée et Supportée par l'Intervention humainE". Doctoral thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/19747.

Testo completo
Abstract (sommario):
Le peuplement de BDRM-3D (Bases de Données à Représentation Multiple 3D) est de plus en plus requis pour supporter des applications avancées de cartographie sur demande et d’analyse décisionnelle géospatiale. Cette thèse présente une nouvelle approche de saisie photogrammétrique en représentation multiple visant à peupler une BDRM-3D de bâtiments. L’approche proposée est nommée approche SAISIE car elle est Semi-Automatique, Initialisée et Supportée par l’Intervention humainE. Elle traite simultanément l’extraction des Géométries Détaillées (GD) et des Géométries Simplifiées (GS). Elle s’appuie notamment sur les nouveaux concepts de Patron d’Acquisition en Représentation Multiple et d’« Instance Driven SASS » (Sélection et Gestion des Algorithmes, des Sources et des Réglages gérée au niveau de l’instance) afin d’améliorer la performance des traitements automatiques mis en œuvre. Ces deux concepts ont été introduits lors de cette recherche. Le concept de PARM résulte du rapprochement des concepts de patron géométrique (introduit pour supporter la généralisation) et de modèle paramétrique (introduit pour supporter la saisie photogrammétrique). Deux nouveaux algorithmes de reconnaissance de forme, l’un traitant de la détermination automatique des paramètres d’implantation de patrons géométriques 3D et l’autre de l’extraction automatique des emprises au sol de bâtiments, ont par ailleurs été introduits lors de la réalisation de cette thèse. L’approche SAISIE ainsi que les concepts et algorithmes proposés pour la supporter ont été mis en œuvre et expérimentés sur quatre sites de tests couvrant plus de trois cent bâtiments. Les résultats obtenus et l’expérience acquise lors des développements des prototypes nous ont permis d’établir une analyse de l’approche SAISIE ainsi que des recommandations pour les recherches futures.
3D MRDB (Multi Representation Data Base) population is more and more required to support advanced cartographical applications and advanced geospatial decisional analysis. This dissertation presents a new photogrammetric approach dedicated to multiple representation acquisition process to populate the buildings of a 3D MRDB. The proposed approach is named SAISIE (this French acronym matches with a semi-automatic acquisition process, initialized and supported by human intervention). The SAISIE approach tackles simultaneously the Detailed Geometries (DG) extraction and the Simplified Geometries (GS) extraction. This uses both the Multi-Representation Acquisition Pattern concept and the Instance Driven SASS concept (SASS : Selection of the Algorithms, Sources and Setting) to improve the process performance. These two new concepts have been introduced during this research. The MRAP concept stems from bridging together the geometric pattern concept (used to support generalisation process) and the parametric model (used to support the photogrammetric building extraction). Two new algorithms have also been introduced. The first one deals with the automatic implantation of 3D geometric pattern and the second one with the automatic extraction of building footprints. The SAISIE approach, the new concepts and the two new algorithms, have been implemented and tested with four test sites. These test sites cover more than three hundred buildings. Results analysis and several recommendations, based on our experimentation and experience, are proposed to conclude this dissertation.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Barbier, Valessa. "Développement, étude et applications de nouvelles matrices "intelligentes" pour l'analyse automatisée d'ADN par électrophorèse : séquençage, cartographie et diagnostic". Paris 6, 2002. http://www.theses.fr/2002PA066388.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Villey-Migraine, Marjolaine. "Multimédia et carto-géographie : Ergonomie des interfaces de navigation hypermédia dans les systèmes documentaires". Paris 2, 2003. http://www.theses.fr/2003PA020016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Daynac, Jimmy. "Contribution de l'Intelligence Artificielle à la cartographie pour l'analyse des dunes à l'échelle d'un désert : cas d'étude du Rub'Al Khali". Electronic Thesis or Diss., Le Mans, 2024. http://www.theses.fr/2024LEMA1027.

Testo completo
Abstract (sommario):
Les dunes de sable éoliennes à différentes échelles (m-km) sont les principales formes topographiques dans les systèmes éoliens et se retrouvent sur divers corps planétaires comme la Terre, Mars ou Vénus. Elles résultent de l'interaction entre le vent, les sédiments transportés et le substratum. La forme, la taille, la disposition spatiale et le déplacement des dunes permet d'analyser les interactions entre les flux d'air et l'apport de sédiments, modulés par les conditions de surface. La production de cartes détaillées des caractéristiques individuelles des dunes couplée à une analyse statistique morphométrique spatialisée devient donc nécessaire pour mieux comprendre et caractériser l'origine de la formation et de l'évolution des dunes éoliennes.Cependant, cartographier les dunes avec précision sur de grandes étendues reste encore aujourd'hui une tâche difficile pour deux raisons. Tout d'abord, compte tenu de la disponibilité des ensembles de données de télédétection avec une résolution spatiale (et temporelle) toujours croissante, une telle cartographie nécessite des procédés automatisés car la numérisation manuelle i) est chronophage et ii) peut être d'une subjectivité et d'une qualité non-uniformes. Ces limites sont principalement dues au fait que les opérateurs humains ne peuvent pas suivre des critères de cartographie similaires sur de vastes zones d'étude, en particulier lorsqu'il s'agit de morphologies complexes. Ensuite, cette cartographie se révèle ardue ; notamment en raison de la complexité de certaines formes et de l'absence de classification universellement acceptée des dunes, malgré les efforts de recherche récents.Ce travail a donc pour objectif premier de proposer une nouvelle méthode de cartographie des dunes éoliennes axée sur une approche couplant du Deep Learning pour tracer le contour des dunes, une "squelettisation" et une analyse de réseau pour cartographier leurs crêtes et leurs connectivités (défauts). L'originalité de cette étude réside dans la capacité à cartographier ces caractéristiques à différentes échelles, allant de quelques kilomètres au désert entier. Les algorithmes développés montrent d'excellentes performances pour analyser des zones géographiques étendues et complexes avec une précision de l'ordre de 90 %. Cette méthode a permis de créer, pour la première fois, une base de données de plusieurs milliers de dunes du désert du Rub'Al Khali (le plus grand désert actif au monde), avec une fidélité élevée par rapport aux observations visuelles des dunes présentes sur le MNT.À partir de cette base de données, nous avons étudié la variabilité morphologique des dunes en les comparant avec les données de vent (ERA5 Land Reanalysis) à l'échelle du désert, afin de quantifier et de comprendre leurs changements morphologiques et leurs répartitions spatiales en lien avec la dynamique des vents. Cette analyse morphométrique spatialisée est basée sur une Analyse en Composante Principale (ACP) et met en évidence les paramètres dominants suivant : la longueur des dunes (PC1) explique plus de 50 % de la variance et décrit les dunes linéaires du SW du désert ; la hauteur (PC2) représente 18 % de la variance et décrit les dunes en croissant du NW ; et la densité de défauts (PC3) explique 14 % de la variance, représentant les dunes en étoile et en dôme au SE. Des tests de p-value ont aussi été réalisés sur ces paramètres et révèlent des valeurs inférieures à 0,05, confirmant ainsi une organisation spatiale significative des dunes à l’échelle du désert.Chaque forme archétypale de dune est dominée par l'un des trois paramètres identifiés par l'ACP, et les transitions entre ces formes représentent des étapes évolutives. En comparant ces résultats avec les données de vent, nous obtenons un modèle évolutif où la forme, la taille et l'orientation des dunes sont fortement influencées par les caractéristiques directionnelles du flux de sable associés aux vents du Shamal et du Kharif.(...)
Aeolian dunes at different scales (m-km) are the primary topographic forms in aeolian systems and are found on various planetary bodies such as Earth, Mars, or Venus. They result from the interaction between wind, transported sediments, and the substrate. The shape, size, spatial arrangement, and movement of dunes allow for the analysis of interactions between airflows and sediment supply, modulated by surface conditions. The production of detailed maps of individual dune characteristics, coupled with spatial morphometric statistical analysis, is thus necessary to understand better and characterize the origin of dune formation and evolution.However, accurately mapping dunes over large areas remains a challenging task today for two reasons. Firstly, considering the availability of remote sensing datasets with ever-increasing spatial (and temporal) resolution, such mapping requires automated processes since manual digitization i) is time-consuming and ii) can be subjective and of uneven quality. These limitations are mainly because human operators cannot maintain consistent mapping criteria across large study areas, especially when dealing with complex morphologies. Secondly, this mapping is challenging, particularly due to the complexity of some forms and the lack of a universally accepted dune classification, despite recent research efforts.The primary objective of this work is to propose a new method for mapping aeolian dunes, focusing on an approach that couples Deep Learning to delineate the dune outlines, "skeletonization," and network analysis to map their crestlines and connectivities (defects). The originality of this study lies in the ability to map these features at various scales, ranging from a few kilometers to entire deserts. The developed algorithms demonstrate excellent performance in analyzing large and complex geographic areas with an accuracy of around 90%. This method has enabled the creation, for the first time, of a database containing several thousand dunes from the Rub'Al Khali desert (the largest active desert in the world), with high fidelity compared to visual observations of the dunes present in the Digital Elevation Model (DEM).From this database, we studied the morphological variability of the dunes by comparing them with wind data (ERA5 Land Reanalysis) on a desert scale, in order to quantify and understand their morphological changes and spatial distributions in relation to wind dynamics. This spatialized morphometric analysis is based on Principal Component Analysis (PCA) and highlights the dominant parameters as follows: dune length (PC1) explains more than 50% of the variance and describes the linear dunes in the SW of the desert; height (PC2) represents 18% of the variance and describes the crescent-shaped dunes in the NW; and defect density (PC3) explains 14% of the variance, representing star and dome dunes in the SE. P-value tests were also conducted on these parameters and revealed values below 0.05, thus confirming a significant spatial organization of dunes at the desert scale.Each archetypal dune form is dominated by one of the three parameters identified by the PCA, and transitions between these forms represent evolutionary stages. By comparing these results with wind data, we obtain an evolutionary model in which dunes shape, size, and orientation are strongly influenced by the directional characteristics of sand flow associated with the Shamal and Kharif winds. The analysis of wind data to the different statistically defined dune populations also revealed two dune growth modes: an elongation mode in the west, where the crests of linear dunes align with the sediment flow, favoring their stretching, and an instability mode in the east, where isolated and crescentic dunes, perpendicular to the flow, optimize their vertical growth
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Ogier, Jean-Marc. "Contribution à l'analyse automatique de documents cartographiques. Interprétation de données cadastrales". Rouen, 1994. http://www.theses.fr/1994ROUES008.

Testo completo
Abstract (sommario):
Les travaux présentés dans ce mémoire abordent le problème de l'analyse automatique de documents cartographiques. L'application proposée concerne l'interprétation des documents cadastraux français. La méthodologie employée s'appuie sur des résultats d'études sur la perception visuelle et sur une description hiérarchisée du document. La stratégie, basée sur le modèle du document, utilise une approche mixte avec différents points de vue sur l'image à traiter. La partie descendante est caractérisée par un ensemble de traitements qui, grâce à une analyse multi-résolution de l'image, permettent d'émettre des hypothèses sur la structure globale de l'image. Les hypothèses émises par ce point de vue sont validées par un ensemble de traitements d'analyse de l'image. Cette analyse est réalisée selon différents niveaux hiérarchiques sur lesquels sont implantés des spécialistes charges de l'extraction de caractéristiques spécifiques au document traité. Dans le cas du cadastre, ces spécialistes traitent de l'analyse des zones texturées, de l'extraction des objets linéaires, de la reconnaissance des caractères et de la reconstitution des entités cadastrales. Les résultats de cette analyse mixte peuvent mettre en évidence des objets non interprétables au sens du cadastre, à cause d'incohérences sémantiques dues à différents facteurs. Une stratégie d'analyse est alors proposée, elle permet grâce à des cycles d'aller-retours entre les traitements hauts et bas niveaux, de résoudre les incohérences de façon autonome. Les résultats présentés, issus de tests effectués sur des données de laboratoire, laissent augurer de bonnes performances sur des bases de données plus importantes et permettent d'envisager l'adaptabilité de la stratégie à d'autres types de documents
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Dupont, François. "Contribution à l'analyse automatique de documents géographiques scannés : extraction de l'altimétrie". Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090047.

Testo completo
Abstract (sommario):
Cette thèse traite du problème de la vectorisation et de la cotation automatique des courbes de niveaux extraites d'une carte scannée, dans le but de construire un modèle numérique de terrain. Les courbes de niveau sont extraites de la carte scannée suivant des critères colorimétriques et morphologiques. En ce qui concerne l'interprétation proprement dite des courbes de niveau, nous nous sommes, dans un premier temps, intéressé à l'aspect reconstruction exhaustive et automatique des courbes de niveau, l'idée étant qu'il est plus aisé de coter un ensemble de courbes parfaitement fermées plutôt que des courbes interrompues. Nous montrons l'insuffisance d'une analyse locale pour résoudre convenablement les cas ambigus et nous proposons un système de reconstruction automatique basé sur un processus d'optimisation global, capable de résoudre la plupart des ambiguïtés de reconstruction par la prise en compte de la propriété topologique des courbes. Cette première partie de notre étude a permis de mettre en évidence le fait que l'information courbe de niveau présente sur la carte scannée est souvent insuffisante pour permettre une bonne interprétation du relief. Nous avons donc mis au point une autre stratégie d'interprétation des courbes de niveau, basée sur l'estimation du sens de la pente. Une telle estimation peut être obtenue en utilisant un mnt extérieur de plus faible précision et/ou de moins bonne qualité que la carte (comme par exemple des mnt issu de stéréoscopie aérienne ou satellitaire), ou bien en interprétant les données altimétriques numériques présentes sur la carte (ie. Les cotations et les points de cote). Ce système produit de bons résultats, facilement exploitables car une mesure de croyance est associée à chacune des courbes cotées
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Chesneau, Élisabeth. "Modèle d'amélioration automatique des contrastes de couleur en cartographie : application aux cartes de risques". Université de Marne-la-Vallée, 2006. http://www.theses.fr/2006MARN0294.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Lefrère, Laurent. "Contribution au développement d'outils pour l'analyse automatique de documents cartographiques". Rouen, 1993. http://www.theses.fr/1993ROUES045.

Testo completo
Abstract (sommario):
Les travaux présentés dans ce mémoire abordent différents aspects de l'analyse de documents cartographiques, du prétraitement couleur à la reconnaissance de toponymes en passant par l'extraction d'objets géographiques. Le premier chapitre est consacré à la classification couleur. Ce prétraitement permet d'obtenir, à partir d'images de cartes numérisées en cyan, magenta, yellow, les plans couleurs rouge, vert, bleu et noir proches des planches-mères ayant permis l'impression des cartes. L'originalité de la segmentation CMY/TS est sa capacité à reconstruire les objets masqués par les superpositions. Cette classification permet d'apporter une information plus compacte et plus complète aux modules d'extraction subséquents. Le second chapitre présente d'une part, une méthode de caractérisation et d'extraction de zones texturées basée sur une modélisation structurelle et statistique des textures. Cette méthode permet de modéliser conjointement l'aspect macroscopique régulier et structuré des textures ainsi que leur aspect microscopique plus aléatoire. D'autre part, est présenté un module d'extraction des réseaux linéaires et plus particulièrement des réseaux routiers basé sur un suivi de trait particulier contrôlé par un ensemble de mesures statistiques regroupées en un critère dit de Gibbs. Le dernier chapitre présente une stratégie particulière de reconstruction de toponymes à partir d'une méthode originale de reconnaissance de caractères invariante à la translation, à l'homothétie et à la rotation. Ce module permet de plus de reconstituer les limites de parcelles formées de pointillés. Ces différents modules fournissent, à partir des cartes papier existantes, des données structurées et organisées, prêtes à être intégrées dans des systèmes d'information géographique
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Aït, Ettajer Taoufik. "Modélisation de surfaces géologiques complexes sous contraintes géométriques : application à la génération automatique de modèles géologiques". Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL058N.

Testo completo
Abstract (sommario):
La modélisation géométrique de surfaces géologiques est un domaine en plein essor dont l'objectif est de représenter, de façon précise, des surfaces géologiques complexes. Les approches basées sur les méthodes de C. A. O. Classiques n'étant pas suffisamment adaptées pour la modélisation de telles surfaces, le professeur Mallet a proposé une nouvelle approche de la modélisation des surfaces naturelles dans le cadre du projet GOCAD. Le noyau du projet réside dans un nouveau principe d'interpolation en 3 dimensions appelé D. S. I. (Discrete Smooth Interpolation). Les travaux présentés dans ce mémoire furent menés au sein de ce projet et consistaient à développer un ensemble d'outils géométriques pour la construction automatique de modèles géologiques. Parmi ces outils, on trouve le calcul des courbes d'isovaleurs sur des surfaces complexes et la modélisation de failles. La nouvelle approche, pour le calcul des courbes d'isovaleurs sur des surfaces, se distingue par sa rapidité et sa précision même si les surfaces sont complexes (par exemple présentant des trous). La modélisation d'une faille passe par la construction d'une surface et par la caractérisation de la relation qu'elle entretient avec un horizon. Cette dernière opération a été rendue possible par la mise en place de trois contraintes géométriques D. S. I. : OnTsurf, VecLink et OnBorder. Les outils de modélisation géométrique du projet GOCAD seront utilisés pour mettre au point un prototype de générateur automatique de modèles géologiques
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Dufourd, Delphine Chatila Raja Luzeaux Dominique. "Des cartes combinatoires pour la construction automatique de modèles d'environnement par un robot mobile". Toulouse : INP Toulouse, 2005. http://ethesis.inp-toulouse.fr/archive/00000225.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Karouach, Saïd. "Visualisations interactives pour la découverte de connaissances, concepts, méthodes et outils". Toulouse 3, 2003. http://www.theses.fr/2003TOU30082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Dufourd, Delphine. "Des cartes combinatoires pour la construction automatique de modèles d'environnement par un robot mobile". Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7413/1/dufourd.pdf.

Testo completo
Abstract (sommario):
Ce travail s'inscrit dans la problématique classique de localisation et de cartographie simultanées pour un robot mobile évoluant en milieu intérieur supposé inconnu. Son originalité réside dans la définition d'un modèle de carte très structuré fondé sur un outil algébrique appelé « carte combinatoire », qui combine plusieurs types de représentations géométriques (modèles surfaciques et cartes basées sur des primitives géométriques) et fournit des informations topologiques telles que les liens d'adjacence. Nous détaillons la chaîne algorithmique permettant de construire des cartes en ligne suivant ce modèle, avec un robot équipé d'un télémètre laser à balayage : il s'agit d'adapter les techniques habituelles basées sur le filtrage de Kalman afin de gérer les relations d'adjacence (appariement de chaînes polygonales, définition de points de cassure virtuels, mises à jour géométrique et topologique spécifiques). Des résultats expérimentaux illustrent et valident les divers mécanismes mis en oeuvre.
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Dufourd, Delphine. "Des cartes combinatoires pour la construction automatique de modèles d'environnement par un robot mobile". Toulouse, INPT, 2005. https://hal.science/tel-04583095.

Testo completo
Abstract (sommario):
Ce travail s'inscrit dans la problématique classique de localisation et de cartographie simultanées pour un robot mobile évoluant en milieu intérieur supposé inconnu. Son originalité réside dans la définition d'un mode de carte très structuré fondé sur un outil algébrique appelé "carte combinatoire", qui combine plusieurs types de représentations géométriques (modèles surfaciques et cartes basées sur des primitives géométriques) et fournit des informations topologiques telles que les liens d'adjacence. Nous détaillons la chaîne algorithmique permettant de construire des cartes en ligne suivant ce modèle, avec un robot équipé d'un télémètre laser : il s'agit d'adapter les techniques habituelles basées sur le filtrage de Kalman afin de gérer les relations d'adjacence (appariement des chaînes polygonales, définition de points de cassure virtuels, mises à jour géométrique et topologique spécifiques). Des résultats expérimentaux illustrent et valident les divers mécanismes mis en oeuvre
This thesis focuses on the well-known Simultaneous Localization and Map-Building (SLAM) problem for indoor mobile robots. The novelty of this work lies in the definition of a well-structured map model based on an algebraic tool called "combinatorial map" which combines different kinds of geometric representations (space-based, grid-based as well as feature-based formats) and provides topological information such as adjacency links between map elements. We describe the whole algorithm designed to build maps on line according to this model, using a robot equiped with a laser scanner. Classical techniques relying on Kalman filtering are adapted in order to deal with adjacency relationships (via polyline matching, the use of virtual break-points and specific geometric and topological update operations). Experimental results are presented to illustrate and validate the various mecanisms involved in this process
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Lamouret, Marie. "Traitement automatisés des données acoustiques issues de sondeurs multifaisceaux pour la cartographie des fonds marins". Electronic Thesis or Diss., Toulon, 2022. http://www.theses.fr/2022TOUL0002.

Testo completo
Abstract (sommario):
Le sondeur multifaisceaux (SMF) est l'une des technologies d'acoustique sous-marine les plus avancées pour l'étude des fonds et de la colonne d'eau. Il requiert une réelle expertise pour son déploiement sur le terrain ainsi que pour l'élaboration de cartographies à partir des différentes données acquises. Ces traitements sont souvent chronophages en raison de la quantité de données acquises et demandent à être automatisés pour alléger le travail à l'hydrographe. C'est ce sur quoi portent les travaux réalisés durant cette thèse. Après des rappels sur des notions d'acoustique sous-marine, le fonctionnement du SMF est décrit et les types de données manipulées tout au long des traitements sont présentés. Le manuscrit s'articule ensuite autour de deux thématiques ˸ la cartographie bathymétrique et la cartographie biocénotique. Les développements sont intégrés dans les logiciels de l'entreprise Seaviews pour laquelle les travaux sont réalisés. Ils répondent à des besoins particuliers de l'entreprise.En ce qui concerne la cartographie bathymétrique, la donnée bathymétrique doit être préalablement triée pour écarter les sondes aberrantes et éviter qu'elles ne pénalisent la précision topographique. Ce tri d'innombrables sondes est une tâche que réalisent les hydrographes, assistés aujourd'hui d'outils numériques. Nous proposerons une méthode statistique rapide pour trier les sondes tout en réalisant une carte de profondeurs marines. Ce qui amène à se demander si les images de la colonne d'eau acquises également par le sondeur ne seraient pas exploitables pour déduire une bathymétrie exempte d'aberration. Nous testerons cette hypothèse à l'aide de l'apprentissage profond (deep learning) et en particulier par des réseaux de neurones convolutifs qui ont permis des progrès considérables en vision par ordinateur. La cartographie des habitats marins (les biocénoses) est un travail de classification de la nature des fonds à partir des données acoustiques du SMF en concordance avec les espèces vivant sur les lieux. La société Seaviews a développé une méthode de préparation des données SMF pour l'analyse des habitats. Nous nous orientons vers des méthodes de classification des habitats, à partir de ces données, par des techniques d'apprentissage automatique (machine learning). Plusieurs méthodes sont mises en place et testées, puis une zone d'étude est choisie pour évaluer et comparer les résultats des différentes approches
Among underwater acoustic technologies, multibeam echo sounder (MBES) is one of the most advanced tool to study and map the underwater floors and the above water column. Its deployment on-site requires expertise so as the whole data processing to map the information. These processing are very time-consuming due to the massive quantity of recorded data and thus needs to be automatised to shorten and alleviate the hydrographer's task. This PhD research works focus on the automatisation of the current activities in Seaviews society.After some reminders on the underwater acoustic sciences, the MBES operating is described as well the produced data that will be manipulated throughout the developments. This document presents two thematics˸ bathymetric (depths) and marine habitats mapping. The developments are integrated into the Seaviews' software in the aim to be used by all the employees.About seafloor depths mapping, the bathymetric sounding has to be sorted to avoid that the outlier errors distort the results. Sorting the uncountable measures is cumbersome but necessary, although the hydrographers are today happily computed-assisted. We propose a fast statistical method to exclude the outliers while mapping the information. This leads to wonder if the water column imagery would be workable to deduce the bathymetry without failure. We will test this hypothesis with some technics of deep learning, especially with convolutional neural networks.The marine habitats mapping is a seabed nature classification according to the local life. Seaviews has worked on a way to prepare MBES data and habitats analysis. Concerning the method of classification itself, we move towards machine learning technics. Several methods are implemented and assessed, and then an area is chosen to evaluate and compare the results
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Delassus, Rémi. "Apprentissage automatique pour la détection d'anomalies dans les données ouvertes : application à la cartographie". Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0230/document.

Testo completo
Abstract (sommario):
Dans cette thèse nous étudions le problème de détection d’anomalies dans les données ouvertes utilisées par l’entreprise Qucit ; aussi bien les données métiers de ses clients, que celles permettant de les contextualiser. Dans un premier temps, nous nous sommes intéressés à la détection de vélos défectueux au sein des données de trajets du système de vélo en libre service de New York. Nous cherchons des données reflétant une anomalie dans la réalité. Des caractéristiques décrivant le comportement de chaque vélo observé sont partitionnés. Les comportements anormaux sont extraits depuis ce partitionnement et comparés aux rapports mensuels indiquant le nombre de vélos réparés ; c’est un problème d’apprentissage à sortie agrégée. Les résultats de ce premier travail se sont avérés insatisfaisant en raison de la pauvreté des données. Ce premier volet des travaux a ensuite laissé place à une problématique tournée vers la détection de bâtiments au sein d’images satellites. Nous cherchons des anomalies dans les données géographiques qui ne reflètent pas la réalité. Nous proposons une méthode de fusion de modèles de segmentation améliorant la métrique d’erreur jusqu’à +7% par rapport à la méthode standard. Nous évaluons la robustesse de notre modèle face à la suppression de bâtiments dans les étiquettes, afin de déterminer à quel point les omissions sont susceptibles d’en altérer les résultats. Ce type de bruit est communément rencontré au sein des données OpenStreetMap, régulièrement utilisées par Qucit, et la robustesse observée indique qu’il pourrait être corrigé
In this thesis we study the problem of anomaly detection in the open data used by the Qucit company, both the business data of its customers, as well as those allowing to contextualize them.We are looking for data that reflects an anomaly in reality. Initially, we were interested in detecting defective bicycles in the trip data of New York’s bike share system. Characteristics describing the behaviour of each observed bicycle are clustered. Abnormal behaviors are extracted from this clustering and compared to monthly reports indicating the number of bikes repaired; this is an aggregate learning problem. The results of this first work were unsatisfactory due to the paucity of data. This first part of the work then gave way to a problem focused on the detection of buildings within satellite images. We are looking for anomalies in the geographical data that do not reflect reality. We propose a method of merging segmentation models that improves the error metric by up to +7% over the standard method. We assess the robustness of our model to the removal of buildings from labels to determine the extent to which omissions are likely to alter the results. This type of noise is commonly encountered within the OpenStreetMap data, regularly used by Qucit, and the robustness observed indicates that it could be corrected
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Vincent, Marie-Chantal. "Outil d'aide à l'interprétation automatique d'images de télédétection TM de Landsat pour la cartographie forestière". Sherbrooke : Université de Sherbrooke, 1998.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Quinson, Martin Caron Eddy Desprez Frédéric. "Découverte automatique des caractéristiques et capacités d'une plate-forme de calcul distribué". [S.l.] : [s.n.], 2003. http://tel.archives-ouvertes.fr/tel-00006169.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Mariani, Robert. "Contribution à la lecture automatique de cartes". Rouen, 1997. http://www.theses.fr/1997ROUES090.

Testo completo
Abstract (sommario):
Un projet de lecture automatique de cartes a débuté à l'institut Geographique National (IGN) en 1991. L'objectif de ce projet est de fournir une plate-forme de conversion automatique des cartes géographiques aux 1 : 25000 en données vecteurs manipulables par un système d'information géographique (SIG). L’IGN étant un producteur de cartes, nous travaillons directement sur les planches mères, et évitons ainsi le problème de séparation des couleurs. Les planches sont scannées en niveau de gris à 50 microns. Le travail a porté sur la définition et la segmentation des textures linéaires de la carte, ainsi que l'apprentissage et la segmentation des textures bidimensionnelles de la carte, l'extraction, la reconstruction et l'attribution du réseau hydrographique et routier. Les textures linéaires sont définies par des grammaires attribuées et la reconnaissance s'effectue par programmation dynamique (appariement de modelés élastiques) tolérante aux omissions, distorsions et bruits. Les textures 2D sont décrites par un graphe planaire obtenu par triangulation de Delaunay. Cette description structurelle est ensuite apprise par des réseaux de neurones, qui effectueront une classification de régions homogènes. Ces dernières sont obtenues par segmentation de type partage et réunion d'une image en niveau de gris obtenue après un lissage gaussien de l'image initiale. A la fin, une étape de régularisation est réalisée par relaxation probabiliste et croissance de régions. Finalement, les réseaux sont modélisés par des graphes, et leur reconstruction et attribution sont formalisées à l'aide d'outils de la théorie des graphes. La reconstruction utilise à la fois les connaissances sur le graphe du réseau naturel (connexe, peu de cycles, planaire), et sur sa représentation cartographique (lignes tiretées, traits et surfaces texturées). Chaque algorithme est dédié à un type de représentation particulière, ici les lignes tiretées, les traits pleins et les objets surfaciques interrompus. Ces interruptions, spécifiques au réseau hydrographique, sont dues à la présence du réseau routier qui passe par-dessus les cours d'eau. Enfin, l'attribution du graphe du réseau hydrographique, consiste à établir sa structure hiérarchique (cours d'eau temporaires, permanents, importants), identifier les cours d'eau bordés d'arbres, associer la toponymie, et valider la reconstruction avec le graphe du réseau routier.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Benoit, Tristan. "Cartographie des programmes et de leurs interrelations". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0320.

Testo completo
Abstract (sommario):
Dans le domaine du génie logiciel, assurer la qualité et la sûreté des logiciels est complexe. Ce contexte est dû à un ensemble de facteurs, notamment l'utilisation croissante de bibliothèques et le recours à des pratiques comme la copie de codes à partir de services en ligne. Une réponse courante à cette problématique est l'application de méthodes formelles de validation des programmes avant leur diffusion. Cette approche, cependant, requiert une compréhension précise des enjeux à vérifier et un haut degré d'expertise. Cette thèse introduit des méthodes innovantes de rétro-ingénierie pour collecter automatiquement des informations sur l'origine d'un programme et pour identifier des clones de programmes au sein de larges jeux de données. Notre première contribution est le nouveau modèle de réseau de neurones Site Neural Network (SNN) qui prédit la chaîne de compilation utilisée pour produire un programme entier. SNN offre une grande rapidité ainsi qu'une bonne précision. Sa modularité grâce à l'utilisation de hiérarchies de classificateurs permet de considérer facilement des chaînes de compilation supplémentaires. Notre seconde contribution est Program Spectral Similarity (PSS), un outil qui fournit un moyen rapide et efficace de détecter des clones de programmes, même quand leur architecture matérielle visée diffère ou en cas d'offuscation. Contrairement aux méthodes basées sur les fonctions binaires ou sur la distance d'édition des graphes, qui sont chronophages et peu robustes, PSS s'appuie sur l'analyse spectrale de graphes pour mesurer la similarité entre programmes. Cette thèse participe ainsi à renforcer la sécurité des systèmes en mettant à disposition des outils pour identifier rapidement les clones de programmes malveillants. En outre, elle apporte un soutien à l'investigation numérique en donnant des informations pertinentes sur la chaîne de compilation. Ce travail ouvre la voie à de nouveaux réseaux de neurones spécialisés pour les programmes, ainsi qu'au développement de méthodes d'analyse spectrale pour l'étude de la similarité des codes binaires
In the field of software engineering, ensuring the quality and security of software is complex. This context is due to a set of factors, notably the increasing use of libraries and the use of practices such as copying codes from online services. The usual solution to this problem is the application of formal methods for program validation before their release. However, this approach requires a precise specification and a high degree of expertise. This thesis introduces new reverse engineering methods to automatically collect information about a program toolchain provenance and identify program clones within large data repositories. Our first contribution is the innovative neural network model Site Neural Network (SNN), which predicts the compilation toolchain used to produce an entire program. SNN offers excellent speed as well as good accuracy. Its modularity due to the use of hierarchies of classifiers allows for easy consideration of additional toolchains. Our second contribution is the Program Spectral Similarity (PSS), a tool that provides a quick and efficient way to detect program clones, even when their target hardware architecture differs or in the case of obfuscation. Unlike binary function-based methods or graph edit distance methods, which are time-consuming and low resilient, PSS relies on the spectral analysis of graphs to measure the similarity between programs. This thesis thus contributes to cyber security by providing tools to identify malware clones quickly. In addition, it supports computer forensics by providing relevant information on the compilation chain. This work paves the way for new neural networks for programs, as well as the development of spectral graph analysis methods for studying binary code similarity
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Hallab, Mohamed. "Hypertextualisation automatique multilingue à partir des fréquences de N-grammes". Paris 8, 2001. http://www.theses.fr/2001PA082019.

Testo completo
Abstract (sommario):
Nous présentons une méthode multi-langues et multi-écritures pour l'analyse de textes et la génération automatique de liens hypertextuels. Cette méthode caractérise les textes par des vecteurs de fréquences de h-codes de N-grammes. Les données initiales sont filtrées et pondérées avant leur analyse par la méthode de classification non supervisée K-means axiales. Les liens hypertextuels sont la conséquence de cette classification : ils s'établissent d'une part entre les différents éléments d'une même classe, et d'autre part entre les noeuds-thèmes et les noeuds de base (noeuds-documents et noeuds-mots). A l'issue de la classification, une carte globale des thèmes peut être proposée à l'utilisateur comme interface de navigation dans le corpus. Ce travail principel est prolongé par un système d'interrogation bilingue français-anglais. Nous présentons également d'autres prolongements de notre méthode de N-grammes : i) l'approximation lexicale de chaînes de caractères basée sur un indice d'inclusion calculé à partir de fréquences de N-grammes, puis sur un indice de séquence, ii) l'aide à l'indexation par surlignage automatique des termes candidats
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Vincent, Marie-Chantal. "Outil d'aide à l'interprétation automatique d'images de télédétection TM de Landsat pour la cartographie forestière". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0013/MQ35714.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Barçon, Étienne. "Vectorisation automatique de voiries urbaines à partir des données LiDAR d'un système de cartographie mobile". Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD011.

Testo completo
Abstract (sommario):
Cette thèse aborde l’automatisation des procédés de cartographie urbaine allant de l’échelle de la rue à celle de la ville. Elle intervient dans un contexte de modification des procédures de levé topographique entrainé par l’essor des capteurs LiDAR embarqués. Si cette évolution technologique réduit le temps nécessaire à l'acquisition des données sur le terrain, elle augmente également le volume et le temps nécessaire au traitement des nuages de points obtenus vers d’autres livrables comme des plans topographiques. Cette thèse propose et met en œuvre une méthodologie visant à automatiser la procédure manuelle de vectorisation des nuages de points issus d’un dispositif de cartographie mobile. L’approche proposée permet d’obtenir la vectorisation automatique d’environ 70% des bordures de trottoir, marquages au sol et mâts pour une classe de précision de 5 cm
This thesis deals with the automation of urban mapping processes, from the street to the city scale. This comes at a time when topographic surveying procedures are being changed by the development of on-board LiDAR sensors. While this change in technology reduces the time needed to acquire data in the field, it also increases the volume and time needed to process the resulting point clouds into other deliverables, such as a topographic map. This thesis proposes and implements a methodology to automate the manual process of vectorizing point clouds from a mobile mapping device. The proposed approach allows to automatically vectorize around 70% of curbs, road markings and poles for a precision class of 5 cm
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Memier, Michel. "Stéréophotogrammétrie numérique : calcul de M.N.T. par corrélation automatique d'images SPOT". Université Joseph Fourier (Grenoble), 1991. http://www.theses.fr/1991GRE10083.

Testo completo
Abstract (sommario):
La reconstruction tridimensionnelle d'une surface à partir de deux images prises de points de vue différents nécessite d'une part la connaissance de la géométrie du capteur (géométrie interne et position spatiale), et d'autre part la reconnaissance de points homologues (corrélation). L'objet de cette thèse est la production de modèles numériques de terrain (MNT) à partir d'images du satellite européen SPOT. La modélisation géométrique est fondée sur l'approche de Guichard qui aboutit à des équations simples et rigoureuses. Les mêmes équations peuvent être utilisées pour l'orientation absolue du modèle (si l'on connaît des points d'appui) ou l'orientation relative en partant simplement de points homologues. L'aboutissement de la modélisation permet de générer un redressement des images sur un plan spécifique (épipolaire), permettant de faciliter la phase suivante de mise en correspondance. La corrélation est abordée selon des approches purement numériques (corrélation de vignettes à partir de considérations statistiques globales) ou selon une approche plus topologique, essayant de mettre en correspondance des éléments de frontières. Quelques applications des MNT sont présentées (représentation en courbes de niveaux perspectives)
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Davtian, Gourguèn. "Analyse des données et cartographie automatique : application aux principales variables climatiques du versant méditerranéen du Maghreb". Nice, 1998. http://www.theses.fr/1998NICE2004.

Testo completo
Abstract (sommario):
Cette étude, composante du projet LAGUNIS du programme AVICENNE, porte essentiellement sur la spatialisation des paramètres climatiques permettant d'évaluer les flux polluants vers la Méditerranée et de déterminer les potentialités d'assainissement par lagunage. L'étude des pluies journalières aboutit à une modélisation globale sous forme d'un générateur stochastique d'averse. Il permet l'estimation des débits et respecte les durées des séquences sèches et pluvieuses pour le calcul de la charge polluante mobilisable. On a pu régionaliser les paramètres de ce générateur (pluie journalière) à partir de la pluie moyenne interannuelle. Pour modéliser les pluies aux échelles mensuelle et annuelle, on a effectué une régression multiple avec différents paramètres du relief et la position des stations. Les résidus du modèle n'étant connus que sur les stations, on a réalisé une étude géostatistique pour les interpoler par krigeage sur tout le domaine. Toutes les informations nécessaires au modèle étant spatialisées, on a établi des cartes des précipitations moyennes mensuelles et une carte des précipitations moyennes interannuelles, ainsi que leurs évolutions fréquentielles. Le rendement du lagunage, et donc le dimensionnement des lagunes, dépendent de la charge mais aussi des températures et des évapotranspirations. Pour la température, on a utilisé la même démarche que pour les pluies. Pour évaluer l'ETP, on montre qu'il est possible d'obtenir des estimations fiables de l'ETP Penman à partir des seules températures, sous réserve de prendre en compte également la saison et la position géographique. Les enseignements de cette recherche sont : valorisation et analyse statistique des données climatiques, génération stochastique des pluies journalières, modélisation "pluie-relief" et "température-relief", estimation régionale simplifiée de l'ETP Penman, construction d'un MNA et élaboration de cartes des pluies, des températures et des ETP aux échelles mensuelle et annuelle
This work, part of the LAGUNIS project of the AVICENNE program, concerns essentially the spatialization of the climatic parameters allowing to evaluate the flows that pollute the Mediterranean sea, and to determinate the potentialities of purification through lagooning. The study of the daily rainfalls gives a global modelisation in form of stochastic generator of rainfalls. It allows the estimation of the flows and respects the periods of dry and rainy sequences to evaluate the potential pollution load. We were able to regionalize the parameters of this generator (daily rainfall) from the yearly mean rainfall. To modelize the rainfalls at monthly and yearly range, we made a multiple regression with some parameters of the relief and the positions of the stations. As the residues of the model were known only in the stations, we carried out a geostatistical study to interpolate them by kriging over the entire field. When all the data needed by the model were spatialized, we drew maps of the monthly mean rainfalls and a map of the yearly mean rainfalls and we gave the principles of their frequencial evolutions. The efficiency of the lagooning and then the dimensioning of the lagoons depend on the pollution load but also on the temperatures and on the evapo-tranpirations. For the temperature, we used the same process than for the rainfalls. To evaluate the etp, we showed that we can obtain reliable estimations of penmann's etp from the only temperatures, on condition we also take into consideration the season and the geographical position. The teachings of this research are: valorisation and statistical analysis of climatic data, stochastic generation of daily rainfalls, "rainfall-relief" and "temperature-relief" modelling, simplified regional estimation of Penmann's ETP, building of a dem and elaboration of charts of rainfalls, temperatures and ETP at monthly and yearly ranges
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Lemaire, Thomas. "Localisation et Cartographie Simultanées avec Vision Monoculaire". Phd thesis, Ecole nationale superieure de l'aeronautique et de l'espace, 2006. http://tel.archives-ouvertes.fr/tel-00452478.

Testo completo
Abstract (sommario):
Cette thèse aborde le problème de localisation et cartographie simultanée pour un robot mobile. Lorsque le robot Évolue dans un environnement inconnu, il doit construire une carte au fur et mesure qu'il explore le monde, tout en se localisant dans celle-ci. De l'anglais \textit{Simultaneous Localisation And Mapping}, le SLAM est une brique essentielle de l'architecture d'un robot autonome. Plusieurs éléments sont nécessaire ‡ la résolution du SLAM, en particulier la perception de l'environnement permet d'observer les éléments de référence (appelés amers) qui constituent la carte. Ces travaux se focalisent sur l'utilisation de la vision artificielle comme moyen de percevoir l'environnement, ainsi la carte et la position du robot peuvent être estimées dans l'espace 3D complet. Les caméras numériques sont des capteurs bien adaptés aux systèmes embarqués et fournissent une information riche sur l'environnement. Mais une caméra ne permet pas de mesurer la distance aux objets, dont on n'obtient donc que des observations partielles. En particulier, ceci rend difficile l'ajout d'un nouvel amer dans la carte. Une méthode d'initialisation pour des amers de type point est proposée, elle s'appuie sur un mécanisme de génération puis de sélection d'hypothèses. Une architecture SLAM pour un robot terrestre est décrite dans son ensemble, en particulier une caméra panoramique est utilisée et permet de percevoir l'environnement sur 360 degrés. Cette architecture a été implémentée sur un robot de type ATRV. Une carte de points 3D est pertinente pour la localisation d'un robot, mais donne une information limitée sur la structure de l'environnement. Un algorithme permettant d'utiliser des segments de droite est proposé, et testé sur des données réelles
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Ruskoné, Renaud. "Extraction automatique du réseau routier par interprétation locale du contexte : application à la production de données cartographiques". Marne-la-Vallée, 1996. http://www.theses.fr/1996MARN0002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Alecrim, José Duarte. "Analyse multivariable et cartographie automatique en prospection géochimique stratégique : sédiments de ruisseau de Cristiano Otoni, Mg-Brésil". Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1990INPL043N.

Testo completo
Abstract (sommario):
Ce mémoire est consacré à l'analyse et à la cartographie automatique des données géochimiques multi-élémentaires de sédiment de ruisseau. Une méthode de traitement des données aussi sophistiquée soit-elle, peut se révéler inefficace si les mesures initiales sont contaminées par des erreurs de prélèvements ou instrumentales. Afin de résoudre ce problème une technique d'analyse de la qualité des teneurs détection et élimination des outliers , basée sur les valeurs écartées dans les distributions mono variables et sur la structure de la corrélation dans les distributions multi variables est présentée. Les teneurs de chaque prélèvement de sédiment de ruisseau intègre localement plusieurs causes de variabilité, dont une des plus importante est la surface du bassin amont. Une solution statistique, utilisant la variance de dispersion et la taille du bassin, pour faire la correction des teneurs, est présente. La cartographie a été réalisée à l'aide d'algorithmes et logiciel permettant des solutions automatiques pour le calcul des surfaces amonts, des contours et hachurage des bassins. A partir des résultats de la classification mono variable utilisant soit toutes les observations, soit après l'élimination des outliers furent calculés le dta et tas. Des cartes d'anomalies ont été établies. Une nouvelle approche a été adaptée à l'acp. Elle consiste en l'élimination des teneurs qui sont considérées non conformes avec la structure de corrélation des données (outliers). Cette nouvelle approche s'est avérée meilleure en ce qui concerne les variances expliquées et les associations géochimiques établies. Les cartes ont été tracées en utilisant les facteurs score de la première composante principale. Le filtrage et affinage des anomalies ont été utilisés à partir du codage des anomalies évaluées, en ce qui concerne aux données mono et multi variables. L'application de ces méthodes de traitement des données
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Siefert, Nathalie. "Etude methodologique de cartographie automatique des ecoulements fluviaux. Application aux bassins de la fecht et du giessen". Université Louis Pasteur (Strasbourg) (1971-2008), 1999. http://www.theses.fr/1999STR1GE05.

Testo completo
Abstract (sommario):
Ce travail presente une methode de spatialisation des ecoulements fluviaux. Elle se base sur le couplage d'un modele hydrologique et d'un sig. La premiere partie s'attache a presenter l'etat de la cartographie hydrologique et les principaux types de representation qui sont affectes aux variables hydrologiques. La methodologique employee est developpee ensuite. Apres la presentation du domaine d'etude dans la seconde partie, la methode mise au point a ete appliquee sur des bassins tests puis, dans un deuxieme temps, sur un domaine voisin pour verifier la validite et la transposabilite de cette derniere. Vu l'importance de la pluie dans la generation des ecoulements, la methode pluvia a ete employee pour apprehender ta variabilite des precipitations. Cette methode se base sur l'exploitationdes liens statistiques entre morphometrie du terrain et volume precipite. La procedure de modelisation spatialisee prend en compte les caracteristiques lithologiques du bassin versant pour caler les valeurs de deux de ses parametres. Il a fourni d'excellents resultats pour te domaine test. On a pu constater un flechissement des performances sur les bassins de controle mais l'efficacite globale reste satisfaisante. La methode pourra donc etre appliquee a d'autres bassins. Afin de realiser des cartes de debits continus dans le lineaire fluvial, une procedure d'interpolation. Integrant le rapport entre debit et surface drainee, a ete utilisee pour calculer des valeurs entre les points simules par le modele. L'etape finale a ete de representer l'evolution des debits dans l'espace. La representation 3 d a permis de realiser des cartes interessantes et lisibles car n'impliquant pas de decoupage en classes des valeurs. Ce type de visualisation est nouveau et la methode de spatialisation des ecoulements fluviaux, ainsi que le mode de representation qui lui a ete associe, pourra avoir de multiples applications dans le domaine de la recherche comme dans celui de l'amenagement.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

El, Hamzaoui Oussama. "Localisation et cartographie simultanées pour un robot mobile équipé d'un laser à balayage : CoreSLAM". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00935600.

Testo completo
Abstract (sommario):
La thématique de la navigation autonome constitue l'un des principaux axes de recherche dans le domaine des véhicules intelligents et des robots mobiles. Dans ce contexte, on cherche à doter le robot d'algorithmes et de méthodes lui permettant d'évoluer dans un environnement complexe et dynamique, en toute sécurité et en parfaite autonomie. Dans ce contexte, les algorithmes de localisation et de cartographie occupent une place importante. En effet, sans informations suffisantes sur la position du robot (localisation) et sur la nature de son environnement (cartographie), les autres algorithmes (génération de trajectoire, évitement d'obstacles ...) ne peuvent pas fonctionner correctement. Nous avons centré notre travail de thèse sur une problématique précise : développer un algorithme de SLAM simple, rapide, léger et limitant les erreurs de localisation et de cartographie au maximum sans fermeture de boucle. Au cœur de notre approche, on trouve un algorithme d'IML : Incremental Maximum Likelihood. Ce type d'algorithmes se base sur une estimation itérative de la localisation et de la cartographie. Il est ainsi naturellement divergent. Le choix de l'IML est justifié essentiellement par sa simplicité et sa légèreté. La particularité des travaux réalisés durant cette thèse réside dans les différents outils et algorithmes utilisés afin de limiter la divergence de l'IML au maximum, tout en conservant ses avantages.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

LAMMALI, NASSIMA. "Recherche automatique du reseau hydrographique a l'aide du modele numerique de terrain". Toulouse 3, 1989. http://www.theses.fr/1989TOU30006.

Testo completo
Abstract (sommario):
L'objectif de notre travail est la cartographie automatique du reseau hydrographique a partir d'un modele numerique de terrain (m. N. T. ). Cette etude se place dans le cadre d'un systeme expert en cartographie. Nous presentons deux methodes de recherche du reseau hydrographique. La premiere construit des composantes annexes a partir d'un ensemble de "points de drainage" obtenu a partir de methodes existantes originales et experimentees. Les m. N. T. Presentant beaucoup d'imperfections au niveau des talwegs nous proposons une seconde methode qui permet de pallier a ce probleme; les grandes structures du relief et plus particulierement les "fonds grandes vallees" sont localisees, le reseau hydrographique en sera deduit
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Bordes, Ghislaine. "Interprétation d'images aériennes guidée par une base de données cartographiques : application à l'extraction automatique des routes". Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0012.

Testo completo
Abstract (sommario):
L'interpretation automatique des images aeriennes pour des applications cartographiques est une tache extrement complexe. Une des solutions pour guider et fiabiliser l'interpretation consiste a utiliser des donnees externes. Dans cette these, l'interpretation des images est guidee par une base de donnees cartographiques : la bd carto. Le theme d'application est l'extraction automatique des routes. La bd carto apporte des connaissances qui permettent de localiser grossierement les routes dans l'image, de connaitre leurs caracteristiques semantiques et contextuelles et donc d'adapter les algorithmes de detection. Toutefois les donnees de la bd carto sont imprecises par rapport aux images aeriennes. La demarche d'interpretation proposee est une demarche descendante. La bd carto est utilisee pour generer des hypotheses de route. L'interpretation de la scene consiste alors a extraire dans l'image les routes correspondant a ces differentes hypotheses, c'est a dire a trouver la position exacte de la route dans l'image. Pour chaque hypothese, le systeme d'interpretation selectionne l'algorithme d'extraction de route le plus adapte et regle ses parametres en fonction des caracteristiques intrinseques et contextuelles de l'hypothese. Pour limiter les effets de l'imprecision des donnees de la bd carto, une strategie de traitement des hypotheses par ordre de facilite est mise en oeuvre : les hypotheses de route qui sont a priori les plus fiables et les plus visibles dans l'image sont traitees en priorite. La strategie d'interpretation proposee a ete implementee dans un systeme-test utilisant deux algorithmes de suivi de route. Une part importante du travail a ete consacree a l'acquisition des connaissances operatoires-notamment des connaissances de controle du systeme- et a la validation de la demarche proposee
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Meline, Arnaud. "Fusion multimodale pour la cartographie sous-marine". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01054546.

Testo completo
Abstract (sommario):
Le but de ce travail est d'analyser des scènes sous-marines naturelles et en particulier cartographier des environnements sous-marins en 3D. Il existe aujourd'hui de nombreuses techniques pour résoudre ce problème. L'originalité de ce travail se trouve dans la fusion de deux cartes obtenues avec des capteurs de différentes résolutions.Dans un premier temps, un engin autonome (ou un bateau) analyse les fonds marins avec un sonar multifaisceaux et crée une première carte globale de la zone. Cette carte est ensuite décomposée en petites cellules représentant une mosaïque du fond marin. Une deuxième analyse est ensuite réalisée sur certaines cellules particulières à l'aide d'un second capteur avec une résolution plus élevée. Cela permettra d'obtenir une carte détaillée 3D de la cellule. Un véhicule autonome sous-marin ou un plongeur muni d'un système de vision stéréoscopique effectuera cette acquisition. Ce projet se décompose en deux parties, la première s'intéressera à la reconstruction 3D de scènes sous-marines en milieu contraint à l'aide d'une paire stéréoscopique. La deuxième partie de l'étude portera sur l'aspect multimodal. Dans notre cas, nous utilisons cette méthode pour obtenir des reconstructions précises d'objets d'intérêts archéologiques (statues, amphores, etc.) détectés sur la carte globale. La première partie du travail concerne la reconstruction3D de la scène sous-marine.Même si aujourd'hui le monde de la vision a permis de mieux appréhender ce type d'image, l'étude de scène sous-marine naturelle pose encore de nombreux problèmes. Nous avons pris en compte les bruits sous-marins lors de la création du modèle 3D vidéo ainsi que lors de la calibration des appareils photos. Une étude de robustesse à ces bruits a été réalisée sur deux méthodes de détections et d'appariements de points d'intérêt. Cela a permis d'obtenir des points caractéristiques précis et robustes pour le modèle 3D. La géométrie épipolaire nous a permis de projeter ces points en 3D. La texture a été ajoutée sur les surfaces obtenues par triangulation de Delaunay. La deuxième partie consiste à fusionner le modèle 3D obtenu précédemment et la carte acoustique. Dans un premier temps, afin d'aligner les deux modèles 3D (le modèle vidéo et le modèle acoustique), nous appliquons un recalage approximatif en sélectionnant manuellement quelques paires de points équivalents sur les deux nuages de points. Pour augmenter la précision de ce dernier, nous utilisons un algorithme ICP (Iterative Closest Points). Dans ce travail nous avons créé une carte 3D sous-marine multimodale réalisée à l'aide de modèles 3D " vidéo " et d'une carte acoustique globale.
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Gaspar, Héléna Alexandra. "Cartography of chemical space". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAF030/document.

Testo completo
Abstract (sommario):
Cette thèse est consacrée à la cartographie de l’espace chimique ; son but est d’établir les bases d’un outil donnant une vision d’ensemble d’un jeu de données, comprenant prédiction d’activité, visualisation, et comparaison de grandes librairies. Dans cet ouvrage, nous introduisons des modèles prédictifs QSAR (relations quantitatives structure à activité) avec de nouvelles définitions de domaines d’applicabilité, basés sur la méthode GTM (generative topographic mapping), introduite par C. Bishop et al. Une partie de cette thèse concerne l’étude de grandes librairies de composés chimiques grâce à la méthode GTM incrémentale. Nous introduisons également une nouvelle méthode « Stargate GTM », ou S-GTM, permettant de passer de l’espace des descripteurs chimiques à celui des activités et vice versa, appliquée à la prédiction de profils d’activité ou aux QSAR inverses
This thesis is dedicated to the cartography of chemical space; our goal is to establish the foundations of a tool offering a complete overview of a chemical dataset, including visualization, activity prediction, and comparison of very large datasets. In this work, we introduce new QSAR models (quantitative structure-activity relationship) based on the GTM method (generative topographic mapping), introduced by C. Bishop et al. A part of this thesis is dedicated to the visualization and analysis of large chemical libraries using the incremental version of GTM. We also introduce a new method coined “Stargate GTM” or S-GTM, which allows us to travel from the space of chemical descriptors to activity space and vice versa; this approach was applied to activity profile prediction and inverse QSAR
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Mimouni, Patrick. "Etude de déplacements animaux non orientés en trajectométrie automatique : contrôles endogènes et exogènes de la nage de rotifères et de stades libres de plathelminthes parasites". Paris 13, 1993. http://www.theses.fr/1993PA131037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Mezghache, Hamid. "Cartographie automatique et interprétation géostatistique d'une campagne de prospection géochimique sur sol : application à la zone mercurielle nord-numidique (Algérie)". Vandoeuvre-les-Nancy, INPL, 1989. http://www.theses.fr/1989NAN10437.

Testo completo
Abstract (sommario):
L'optimisation d'une campagne de prospection géochimique nécessite la connaissance du contrôle géologique des minéralisations et l'utilisation des méthodes de traitement de données appropriées. Six méthodes de traitement mono- et multivariables ont été appliquées aux données de prospection géochimique sur sol de deux secteurs (Chergui-Bir et Ferfour) de la zone mercurielle nord-numidique. Dans le premier secteur, la minéralisation est typiquement mercurielle et dans le secteur de Ferfour il y a apparemment deux types de minéralisation : l'une polymétallique et l'autre mercuro-polymétallique. Le contrôle de la minéralisation par des failles de direction bien précise a été déterminé. Les méthodes de traitement des données utilisées sont: 1) l'analyse en composantes principales utilisée avec une nouvelle approche, 2) la classification monovariable selon la méthode Sinclair, mais à l'aide de nouveaux algorithmes permettant des solutions automatiques, 3) l'ACP sur les fonctions indicatrices, 4) la classification multivariable par la méthode du potentiel et qui a confirmé la présence des deux types de minéralisation, 5) la recherche des sources de dispersion par la méthode de la fonction cosinus et 6) le krigeage universel en utilisant uniquement les valeurs prises comme teneurs de fond géochimique selon la méthode de Lepeltier. Des cartes d'isoprobabilité (entre autres) ont été établies. Ces méthodes ont permis de mettre en évidence d'autres anomalies mercurielles en plus de celles déjà connues. Ceci témoigne de l'efficacité des méthodes utilisées
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Matteo, Lionel. "De l’image optique "multi-stéréo" à la topographie très haute résolution et la cartographie automatique des failles par apprentissage profond". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4099.

Testo completo
Abstract (sommario):
Les failles sismogéniques sont la source des séismes. L'étude de leurs propriétés nous informe donc sur les caractéristiques des forts séismes qu'elles peuvent produire. Les failles sont des objets 3D qui forment des réseaux complexes incluant une faille principale et une multitude de failles et fractures secondaires qui "découpent" la roche environnante à la faille principale. Mon objectif dans cette thèse a été de développer des approches pour aider à étudier cette fracturation secondaire intense. Pour identifier, cartographier et mesurer les fractures et les failles dans ces réseaux, j'ai adressé deux défis :1) Les failles peuvent former des escarpements topographiques très pentus à la surface du sol, créant des "couloirs" ou des canyons étroits et profond où la topographie et donc, la trace des failles, peut être difficile à mesurer en utilisant des méthodologies standard (comme des acquisitions d'images satellites optiques stéréo et tri-stéréo). Pour répondre à ce défi, j'ai utilisé des acquisitions multi-stéréos avec différentes configurations (différents angles de roulis et tangage, différentes dates et modes d'acquisitions). Notre base de données constituée de 37 images Pléiades dans trois sites tectoniques différents dans l'Ouest américain (Valley of Fire, Nevada ; Granite Dells, Arizona ; Bishop Tuff, California) m'a permis de tester différentes configurations d'acquisitions pour calculer la topographie avec trois approches différentes. En utilisant la solution photogrammétrique open-source Micmac (IGN ; Rupnik et al., 2017), j'ai calculé la topographie sous la forme de Modèles Numériques de Surfaces (MNS) : (i) à partir de combinaisons de 2 à 17 images Pléiades, (ii) en fusionnant des MNS calculés individuellement à partir d'acquisitions stéréo et tri-stéréo, évitant alors l'utilisant d'acquisitions multi-dates et (iii) en fusionnant des nuages de points calculés à partir d'acquisitions tri-stéréos en suivant la méthodologie multi-vues développée par Rupnik et al. (2018). J’ai aussi combiné, dans une dernière approche (iv), des acquisitions tri-stéréos avec la méthodologie multi-vues stéréos du CNES/CMLA (CARS) développé par Michel et al. (2020), en combinant des acquisitions tri-stéréos. A partir de ces quatre approches, j'ai calculé plus de 200 MNS et mes résultats suggèrent que deux acquisitions tri-stéréos ou une acquisition stéréo combinée avec une acquisition tri-stéréo avec des angles de roulis opposés permettent de calculer les MNS avec la surface topographique la plus complète et précise.2) Couramment, les failles sont cartographiées manuellement sur le terrain ou sur des images optiques et des données topographiques en identifiant les traces curvilinéaires qu'elles forment à la surface du sol. Néanmoins, la cartographie manuelle demande beaucoup de temps ce qui limite notre capacité à produire cartographies et des mesures complètes des réseaux de failles. Pour s'affranchir de ce problème, j'ai adopté une approche d'apprentissage profond, couramment appelé un réseau de neurones convolutifs (CNN) - U-Net, pour automatiser l'identification et la cartographie des fractures et des failles dans des images optiques et des données topographiques. Volontairement, le modèle CNN a été entraîné avec une quantité modérée de fractures et failles cartographiées manuellement à basse résolution et dans un seul type d'images optiques (photographies du sol avec des caméras classiques). A partir d'un grand nombre de tests, j'ai sélectionné le meilleur modèle, MRef et démontre sa capacité à prédire des fractures et des failles précisément dans données optiques et topographiques de différents types et différentes résolutions (photographies prises au sol, avec un drone et par satellite). Le modèle MRef montre de bonnes capacités de généralisations faisant alors de ce modèle un bon outil pour cartographie rapidement et précisément des fractures et des failles dans des images optiques et des données topographiques
Seismogenic faults are the source of earthquakes. The study of their properties thus provides information on some of the properties of the large earthquakes they might produce. Faults are 3D features, forming complex networks generally including one master fault and myriads of secondary faults and fractures that intensely dissect the master fault embedding rocks. I aim in my thesis to develop approaches to help studying this intense secondary faulting/fracturing. To identify, map and measure the faults and fractures within dense fault networks, I have handled two challenges:1) Faults generally form steep topographic escarpments at the ground surface that enclose narrow, deep corridors or canyons, where topography, and hence fault traces, are difficult to measure using the available standard methods (such as stereo and tri-stereo of optical satellite images). To address this challenge, I have thus used multi-stéréo acquisitions with different configuration such as different roll and pitch angles, different date of acquisitions and different mode of acquisitions (mono and tri-stéréo). Our dataset amounting 37 Pléiades images in three different tectonic sites within Western USA (Valley of Fire, Nevada; Granite Dells, Arizona; Bishop Tuff, California) allow us to test different configuration of acquisitions to calculate the topography with three different approaches. Using the free open-source software Micmac (IGN ; Rupnik et al., 2017), I have calculated the topography in the form of Digital Surface Models (DSM): (i) with the combination of 2 to 17 Pleiades images, (ii) stacking and merging DSM built from individual stéréo or tri-stéréo acquisitions avoiding the use of multi-dates combinations, (iii) stacking and merging point clouds built from tri-stereo acquisitions following the multiview pipeline developped by Rupnik et al., 2018. We used the recent multiview stereo pipeling CARS (CNES/CMLA) developped by Michel et al., 2020 as a last approach (iv), combnining tri-stereo acquisitions. From the four different approaches, I have thus calculated more than 200 DSM and my results suggest that combining two tri-stéréo acquisitions or one stéréo and one tri-stéréo acquisitions with opposite roll angles leads to the most accurate DSM (with the most complete and precise topography surface).2) Commonly, faults are mapped manually in the field or from optical images and topographic data through the recognition of the specific curvilinear traces they form at the ground surface. However, manual mapping is time-consuming, which limits our capacity to produce complete representations and measurements of the fault networks. To overcome this problem, we have adopted a machine learning approach, namely a U-Net Convolutional Neural Network, to automate the identification and mapping of fractures and faults in optical images and topographic data. Intentionally, we trained the CNN with a moderate amount of manually created fracture and fault maps of low resolution and basic quality, extracted from one type of optical images (standard camera photographs of the ground surface). Based on the results of a number of performance tests, we select the best performing model, MRef, and demonstrate its capacity to predict fractures and faults accurately in image data of various types and resolutions (ground photographs, drone and satellite images and topographic data). The MRef predictions thus enable the statistical analysis of the fault networks. MRef exhibits good generalization capacities, making it a viable tool for fast and accurate extraction of fracture and fault networks from image and topographic data
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Mahamat, Atteïb Ibrahim Doutoum. "Cartographie et détection de changement automatique par imagerie de télédétection pour le suivi environnemental en Afrique saharienne et sub-saharienne". Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22510/document.

Testo completo
Abstract (sommario):
Les images radar des surfaces planétaires fournissent une mine d'information sur l'espace imagé. La disponibilité des images SAR (Synthetic Aperture Radar) donne la possibilité de cartographier des régions inconnues, difficilement accessibles, ou peu propices à la vie de l'Homme. Cependant, les images de télédétection radar présentent plusieurs défauts, dont le speckle et une ou plusieurs formes de distorsion géométrique. L'objectif de cette étude est de développer des méthodes capables d'identifier et de caractériser des changements affectant les surfaces des dunes à partir des données satellitales acquises à différentes dates et provenant de différentes sources. Elles donnent ainsi, la possibilité de cartographier, de catégoriser et de surveiller des zones affectées par des événements naturels survenus au cours du temps
Radar images of planetary surfaces provide a wealth of information on the imaged area. The availability of SAR (Synthetic Aperture Radar) images provides the ability to map unknown regions, difficult to access, or not conducive to the human life. However, the radar remote sensing images have several defaults, the speckle and one or more forms of geometrical distortion. The aim of this study is to develop methods that can identify and characterize changes in dune areas using satellite data acquired at different times and from different sources. So they give the possibility to map, categorize and monitor areas affected by natural events along time
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Quinson, Martin. "Découverte automatique des caractéristiques et capacités d'une plate-forme de calcul distribué". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2003. http://tel.archives-ouvertes.fr/tel-00006169.

Testo completo
Abstract (sommario):
Ce mémoire traite de l'obtention d'informations pertinentes, récentes et précises sur l'état courant des plates-formes de calcul modernes. Souvent dénommés grilles, ces environnements se différencient des machines parallèles les ayant précédés par leur nature intrinsèquement hétérogène et fortement dynamique.

Ce document est découpé en trois parties. La première présente les difficultés spécifiques à la grille en se basant sur une sélection de projets d'infrastructures pour la grille et en détaillant les solutions proposées dans ce cadre.

La seconde partie montre comment obtenir efficacement des informations quantitatives sur les capacités de la grille et leur adéquation aux besoins des routines à ordonnancer. Après avoir détaillé les problèmes rencontrés dans ce cadre, nous explicitons notre approche, nommée macro-benchmarking. Nous présentons ensuite l'outil FAST, développé dans le cadre de cette thèse et mettant cette méthodologie en oeuvre. Nous étudions également comment cet outil est utilisé dans différents projets.

La troisième partie traite de l'obtention d'une vision plus qualitative des caractéristiques de la grille, telle que la topologie d'interconnexion des machines la constituant. Après une étude des solutions classiques du domaine, nous présentons ALNeM, notre solution de cartographie automatique ne nécessitant pas de privilège d'exécution particulier. Cet outil est basé sur l'environnement GRAS, développé dans le cadre de ces travaux pour la mise au point des constituants de la grille.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Boichis, Nicolas. "Extraction automatique des carrefours routiers par interpretation d'images aeriennes guidee par une base de donnees cartographiques". Cergy-Pontoise, 2000. http://www.theses.fr/2000CERG0089.

Testo completo
Abstract (sommario):
Dans le cadre de l'acquisition des donnees topographiques de precision metrique (bdtopo) par interpretation d'images aeriennes de resolution proche de 50 cm, les recherches du laboratoire matis ont aborde l'extraction du reseau routier. Des approches semi-automatiques aux approches tout automatiques, tous ces travaux ont demontre que l'obtention d'un reseau routier coherent et respectant les specifications cartographiques necessitait de prendre en compte le probleme des carrefours. De plus, dans l'avenir, les carrefours seront au centre des problematiques de mise a jour. L'analyse d'images necessite la mise en place de raisonnements parfois tres complexes dus a la variabilite geometrique et radiometrique des formes a detecter. Afin de faciliter cette analyse, une base de donnees cartographiques (bdcarto) de precision decametrique est utilisee pour proposer une representation approchee du carrefour. Le respect de la precision geometrique, de la topologie, de la forme de l'objet et une exigence de fiabilite constituent les principaux objectifs de notre travail. La strategie s'appuie sur une modelisation des carrefours issus de la bdcarto pour se focaliser et interpreter certaines zones de l'image. Une analyse de la bdcarto a partir d'un systeme a base de regles fournit une description simpliste du carrefour a recaler et a enrichir par une analyse de l'image. Un mecanisme d'auto-evaluation definit, a chaque etape du processus, une mesure de confiance dans l'information proposee. La reconstruction permet ensuite de proposer une representation du carrefour globalement coherente (radiometrie et geometrie) et respectant les criteres cartographiques de forme et de lisibilite. Enfin, la prise en compte d'un grand nombre d'exemples nous a permis de parametrer le systeme et d'analyser les resultats. Pour finir, ce travail a ete integre dans un systeme plus global d'extraction du reseau routier demontrant son caractere applicatif et l'objectif operationnel de ce travail.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Voitovich, Iuliia. "Les inhibiteurs d'interaction protéine-protéine, une stratégie innovante en cancérologie". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0701.

Testo completo
Abstract (sommario):
Les protéines BET, modules impliqués dans la régulation épigénétique, jouent un rôle essentiel dans le développement du cancer. Actuellement plusieurs inhibiteurs de protéines BET font l'objet d'essais cliniques pour le traitement de différents types de cancer. Une des limitations au développement clinique est l'impact général de la modulation génique induite par des inhibiteurs de type ‘pan-BET’ non sélectifs. Un ciblage individuel des protéines BET et la discrimination des domaines BD1 et BD2 conduiraient à un effet transcriptionnel plus spécifique limitant les effets secondaires et l’apparition de résistance. Le criblage d’une chimiothèque focalisée sur les interactions protéine-protéine a permis d’identifier deux molécules avec des profils de sélectivité uniques. Une étude de SAR a révélé le fragment minimal nécessaire à l’interaction ligand-protéine. La résolution de la structure cristallographique en complexe avec Brd4(BD1) a permis de valider nos interprétations et de développer des inhibiteurs BET plus puissants et sélectifs. Une stratégie de synthèse originale orientée vers une diversité structurale (DOTS) combinant le criblage virtuel et l’élaboration automatisée de bibliothèques focalisées a été utilisée. Ce travail a découvert un inhibiteur optimisé de BD1 avec une affinité de 100x supérieure à la molécule initiale et un ratio de sélectivité BD1 vs BD2 égale à 300. L’activité cellulaire d’inhibition du pro-oncogène c-Myc, au µM, a permis de valider le composé en tant que sonde moléculaire. Des études in vitro et in vivo permettront d'élucider le rôle biologique individuel de chaque BD et de valider l'intérêt de leurs développement en clinique
BET-proteins, acting as epigenetic readers, play an essential role in cancer development. To date, numerous potent inhibitors disrupting BET functions have been discovered, including several of them that are undergoing clinical trials for the treatment of different types of cancer. The common drawback limiting their use in clinical practice is an inability to distinguish between BET-members that may cause side effects and resistances. The selective targeting of individual BET and the discrimination between BD1 and BD2 present an opportunity to achieve more selective transcriptional effect. A midthroughput screening of previously designed chemical library allowed identification of two molecules with unique profiles of selectivity that have never been observed. An undertaken structure-based program revealed a minimum scaffolds necessary for binding. Taking together with resolved X-Ray structures it allowed the development of more potent and selective BET inhibitors by DOTS (diversity oriented target focused synthesis) strategy, combining virtual screening and diversity oriented library design. This optimization led to a potent inhibitor with up to 100-fold improvement of affinity to the target and up to 300-fold selectivity toward BD1. Dose-response downregulation of c-Myc levels in low micromolar range in cell assays allowed the validation of the identified molecule as a chemical probe. Further comprehensive in vitro and in vivo evaluations of this compound will enable elucidating the biological role of each bromodomain and a validation of the interest toward the development of selective inhibitors in clinic
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Larvy, delariviere Ulysse. "Orientation automatique de carte d'environement autour d'une scene locale". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS024.

Testo completo
Abstract (sommario):
Dans cette thèse, nous avons présentons une méthode pour orienter automatiquement une carte d'environnement avec une scène locale.Dans la littérature, de nombreuses méthodes ont besoin d'orienter la carte d'environement pour obtenir une cohérence avec une scène locale. Cette orientation est dans la majorité descas effectuée de manière manuelle par un utilisateur. Nous présentons une méthode pour recaler automatiquement un carte d'environement avec une scène locale. Une caractéristique de notre approche est que nous n'avons pas besoin de créer un modèle 3D complet de la scène locale, ni d'interaction avec l'utilisateur. De plus, nous faisons que de simples hypothèses.Nous proposons un pipeline pour créer une représentation virtuelle de la scène en utilisant nos données d'entrée. Cette représentation comprend la scène globale représentée par la carte d'environement et la scène locale représentée par un objet de référence et son ombre.En utilisant la connaissance de la position de la source lumineuse principale sur la carte d'environnement, nous pouvons simuler l'éclairage et projeter une ombre sur le sol. Il est alors possible de comparer la forme de l'ombre calculée avec celle de l'ombre d'entrée pour récupérer la position correcte de la source lumineuse principale. L'orientation finale de la carte d'environement est directement liée à la position de cette source lumineuse principale.Nous fournissons une évaluation de l'approche proposée en calculant deux métriques qui comparent notre estimation d'angle avec les directions réelles au sol. Notre estimation d'orientation montre que notre méthode récupère une orientation de carte d'environement correcte
In this thesis, we have presented a method to register an environment map with a local scene automatically.In the literature, many methods need to orient the environmental map to be coherent with a local scene. This orientation is mostly done manually by a user. We present a method to register an environment map with a local scene automatically. A characteristic of our approach is that we do not need to create a complete 3D model of the local scene or have interaction with the user. Moreover, we are making simple assumptions.We propose a pipeline to create a virtual representation of the scene using our input data. This representation includes the global scene represented by the environment map and the local scene represented by a reference object and its shadow.By using the knowledge of the position of the main light source on the environment map, we can simulate the lighting and project a computed shadow on the ground. It is possible to compare the computed shadow shape with the input one to recover the correct position of the main light source. The final orientation of the environment map is directly related to the position of this main light source.We provide an evaluation of the proposed approach by calculating two metrics that compare our angle estimate with actual ground truth directions. Our orientation estimation shows that our method recovers a correct environment map orientation.In this thesis, we are interested in real input data. The environment map and the local scene are extracted from photographs or videos, which already contain a lighting rendering. It is therefore important to orient the environment map in a way that is consistent with the existing lighting in the local scene.We propose an automatic method, to orient an environment map to a local scene. This method is inspired by the behavior of light, drawing rays of light towards an object and attempting to match two shadows, one given as input and one calculated.We also use 3D data from the object we are considering. The originality is that we base our method on the way light behaves in order to calculate and match shadows. By matching the shadows, we can estimate the correct position of the environment map
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Salmeron, Eva. "Mise en coïncidence automatique des contours extraits d’images aériennes et d’éléments cartographiques". Compiègne, 1986. http://www.theses.fr/1986COMPD018.

Testo completo
Abstract (sommario):
Les méthodes étudiées partent d’extraction automatique de primitives sur des images aériennes ou satellites monochromes, notamment les contours caractéristiques (amers). On peut les comparer aux contours ou tracés cartographiques des amers (routes, voies ferrées, rivières, etc…). Deux nouvelles méthodes sont ensuite proposées pour calculer le déplacement (translation, rotation) entre l’image aérienne et son modèle-carte. Une stratégie globale, basée sur des tables de distances, calcule la coïncidence optimale entre les deux graphiques (contours, contours symboliques). Une autre méthode, basée sur des notions plus locales et sur une relaxation probabiliste, étudie la mise en correspondance des segments de droite composant les contours des deux graphiques. Ces deux approches fournissent des résultats satisfaisant sur de vrais couples image aérienne-carte.
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Hecht, Robert. "Automatische Klassifizierung von Gebäudegrundrissen". Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2014. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-151601.

Testo completo
Abstract (sommario):
Für die Beantwortung verschiedener Fragestellungen im Siedlungsraum werden kleinräumige Informationen zur Siedlungsstruktur (funktional, morphologisch und sozio-ökonomisch) benötigt. Der Gebäudebestand spielt eine besondere Rolle, da dieser die physische Struktur prägt und sich durch dessen Nutzung Verteilungsmuster von Wohnungen, Arbeitsstätten und Infrastrukturen ergeben. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung sind die Gebäude in ihrem Grundriss modelliert. Diese besitzen allerdings nur selten explizite semantische Informationen zum Gebäudetyp. Es stellt sich die Frage, ob und wie genau eine automatische Erkennung von Gebäudetypen unter Nutzung von Methoden der Geoinformatik, der Mustererkennung und des maschinellen Lernens möglich ist. In diesem Buch werden methodische Bausteine zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt. Im Kern werden Fragen beantwortet zu den Datenanforderungen, der Gebäudetypologie, der Merkmalsgewinnung sowie zu geeigneten Klassifikationsverfahren und den Klassifikationsgenauigkeiten, die abhängig von Eingangsdaten, Siedlungstyp und Trainingsdatenmenge erzielt werden können. Der Random-Forest-Algorithmus zeigte die höchste Flexibilität, Generalisierungsfähigkeit und Effizienz und wurde als bestes Klassifikationsverfahren identifiziert. Die Arbeit leistet einen wichtigen Beitrag zur Gewinnung kleinräumiger Informationen zur Siedlungsstruktur. Die entwickelte Methodik ermöglicht ein breites Anwendungsspektrum in der Wissenschaft, Planung, Politik und Wirtschaft (u. a. Stadt- und Regionalplanung, Infrastrukturplanung, Risikomanagement, Energiebedarfsplanung oder dem Geomarketing)
Building data are highly relevant for the small-scale description of settlement structures. Spatial base data from National Mapping and Cadastral Agencies describe the buildings in terms of the geometry but often lack semantic information on the building type. Here, methods for the automatic classification of building footprints are presented and discussed. The work addresses issues of data integration, data processing, feature extraction, feature selection, and investigates the accuracy of various classification methods. The results are of scientific, planning, policy and business interest at various spatial levels
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Fanton, Hervé. "Cartographie rapide de l'environnement local d'un robot mobile autonome". Grenoble INPG, 1989. http://www.theses.fr/1989INPG0130.

Testo completo
Abstract (sommario):
Proposition d'une methode de carte locale destinee a la navigation d'un robot mobile autonome mettant en uvre un telemetre laser, une modelisation du monde par des grilles et une architecture parallele hybride de type nimo-simo
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Lienou, Marie Lauginie. "Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005585.

Testo completo
Abstract (sommario):
La reconnaissance de la couverture des sols à partir de classifications automatiques est l'une des recherches méthodologiques importantes en télédétection. Par ailleurs, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la production des cartes d'occupation du sol, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Zhou, Yilin. "Métrologie 100 % automatique par photogrammétrie aéroportée légère et GPS de précision permanent et embarqué : application au suivi de digues". Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2033.

Testo completo
Abstract (sommario):
Le développement des plateformes de véhicules aériens autonomes (UAV) en fait une source de données précieuse pour les applications d’inspection, de suivi, de cartographie et de modélisation 3D. La photogrammétrie UAV ouvre de nouvelles applications dans la photogrammétrie aérienne rapprochée et introduit une alternative peu coûteuse à la photogrammétrie classique pour véhicules pilotés. La cartographie de corridors, est l’un des domaines d’importance considérable pour la photogrammétrie UAV, car largement sollicitée pour la surveillance et la gestion de certaines infrastructures — les autoroutes, les voies ferroviaires, les voies navigables et les pipelines. En raison de la géométrie particulière de la scène, ceci est un cas à prendre avec précaution. Les erreurs s’accumulent facilement sur la plus longue dimension de la scène et une déformation en bol est souvent observée; de plus, la planéité de la scène introduit de fortes corrélations entre les paramètres à déterminer. Ces deux facteurs réunis rendent plus difficile l’obtention de résultats de haute précision dans la configuration corridor par rapport à une géométrie de prise de vue plus classique. Cette thèse est un projet de recherche initié par un concessionnaire fluvial, responsable de la maintenance et de la surveillance de son installation hydraulique — les digues. L’objectif est d’appliquer la photogrammétrie UAV pour obtenir un suivi 3D dense, plus rapide et moins chère, pour la surveillance de ces digues. Dans le cadre de la thèse, nous cherchons à réduire le travail de terrain tout en maintenant une précision cartographique élevée, en l’occurrence, diminuer le nombre de points de contrôle au sol (GCP). Dans un premier temps, des simulations sont réalisées pour mieux comprendre certains problèmes de cartographie de corridors qui nous intéressent. Ensuite, des études plus approfondies sont menées sur les trois aspects qui nous intéressent le plus. Le premier porte sur la géométrie de l’acquisition aérienne, et plus précisément sur l’influence des images obliques, des images nadir de différentes hauteurs de vol, ainsi que la possibilité d’une calibration de caméra en vol et son application à une géométrie d’acquisition défavorable. Le deuxième vise à améliorer les performances d’acquisition des caméras métriques haute gamme. La déformation de l’image introduite par la variation de la température de la caméra est étudiée et modélisée. Une méthode de correction de cet effet thermique est proposée, ses performances sont évaluées sur des jeux de données terrestres et aériens en configuration de corridors. Le dernier s’intéresse à l’effet de l’obturateur roulant utilisé dans les caméras grand public, qui est vu couramment sur les plateformes UAV du marché. Deux méthodes sont présentées pour calibrer le temps de lecture de la caméra, une propriété qui n’est souvent pas donnée par les fabricants de caméras. Une méthode en deux étapes est proposée pour la correction de l’effet de l’obturateur roulant, ses performances sont évaluées dans les configurations de bloc et de corridor
The development of unmanned aerial vehicle (UAV) platform makes it nowadays avaluable source of data for inspection, surveillance, mapping and 3D modeling issues. UAV photogrammetry opens various new applications in close-range aerial domain and introduces a low-cost alternative to classical manned vehicle photogrammetry. Corridor mapping, one of the fields with substantial importance for UAV photogrammetry, is largely demanded in the surveillance and management of infrastructure assets – highways, railways, waterways and pipelines. Due to the special geometry of the scene, corridor mapping is one case that needs taking precautions. Errors accumulate easily on the longer dimension of the scene and a bowl effect is often observed; the flatness of the scene introduces strong correlations between parameters to be determi-ned, these two factors together, make it more difficult to obtain high accuracy results in corridor configuration than in block one. This thesis is a research project initiated by a river concessionary, which has the responsibility of maintenance and surveillance of its hydraulic facility – the dikes. The objective is to apply UAV photogrammetry, which is faster, cheaper and offers a continuous geometric surveillance, for the monitoring of dikes. While maintaining a high surveying accuracy, a reduced field work, i.e. the number of ground control points (GCPs) is expected.In the first place, simulations are carried out to gain an insight of several problems of corridor mapping that interest us. Then, thorough investigations are conducted on three aspects that interest us the most. The first study focuses on the aerial acquisition geometry, discussions are given on the influence of oblique images, nadir images of different flight heights as well as the possibility of an in-flight camera calibration and its application on unfavourable acquisition geometry. The second study aims to improve the acquisition performance for high-end metric cameras. The image deformation introduced by camera temperature variation is investigated and modelled. A method for the correction of this thermal effect is proposed, its performance is evaluated on both terrestrial and aerial datasets of corridor configuration. The last study interests in the rolling shutter effect for consumer-grade cameras with rolling shutter, which is commonly seen in UAV platforms on the market. Two methods are presented to calibrate the camera readout time, a property that is often not given by camera manufacturers. A two-step method is proposed for the correction of rolling shutter effect, its performance is evaluated in both block and corridor configurations
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Ambroise, Christophe. "Approche probabiliste en classification automatique et contraintes de voisinage". Compiègne, 1996. http://www.theses.fr/1996COMPD917.

Testo completo
Abstract (sommario):
Ce travail propose de nouveaux algorithmes de classification pour résoudre des problèmes d'analyse de données où des contraintes naturelles apparaissent : respect d'une topologie (cartes de Kohonen), données spatiales. Les mélanges finis de lois gaussiennes et l'estimation de paramètres par l'algorithme EM constituent le cadre de ce mémoire. Le modèle des cartes topologiques de Kohonen introduisant la notion de contrainte, nous nous sommes intéressés à montrer les liens qui existent entre cette approche et les modèles de mélanges. Cette recherche a abouti au développement de variantes de l'algorithme EM ayant des comportements identiques à l'algorithme de Kohonen et possédant de bonnes propriétés de convergence. Dans le cas des données spatiales, l'a priori suivant est considéré : deux individus géographiquement proches ont plus de chance d'appartenir à une même classe que deux individus éloignés. Des algorithmes originaux, basés sur l'algorithme EM, sont proposés pour prendre en compte l'aspect spatial des données. Ces algorithmes peuvent être utilisés pour trouver une partition d'un ensemble d'individus localisés géographiquement, ce qui englobe la problématique de la segmentation d'image. Un parallèle entre les méthodes développées dans ce mémoire et les techniques markoviennes de segmentation bayésienne non supervisée d'image a été établi. Enfin, les méthodes présentées sont illustrées et comparées à l'aide d'applications concrètes
This thesis proposes new clustering algorithms well suited for data analysis problems where natural constraints appear: preservation of a topology, spatial data. Gaussian mixture models and the estimation of parameters by the EM algorithm constitute the background of the work. The Kohonen Map algorithm introduces the idea of constraint in clustering. We show the relationship between this neural approach and Gaussian mixture models. This leads us to propose a variant of the EM algorithm which has similar behaviour as the Kohonen algorithm and whose convergence is proven. When dealing with spatial data, we consider the following constraint: two objects which are neighbours are more likely to belong to the same class than two objects which are spatially far away. Original algorithms based on the EM algorithm are proposed for taking into account this spatial constraint. These algorithms may be used for seeking a partition of objects which have a geographical location. This encompasses the problem of unsupervised image segmentation. A theoretical link between our approach and Markov random field models is established. The proposed methods are compared and illustrated by means of applications based on real data
Gli stili APA, Harvard, Vancouver, ISO e altri
49

El, @Khabchi Mohamed. "Traitement d'images satellitaires (Landsat-MSS) pour une cartographie automatique de l'occupation agricole de la région de Marrakech (Maroc) poursuivis d'une réflexion méthodologique". Aix-Marseille 1, 1995. http://www.theses.fr/1996AIX10045.

Testo completo
Abstract (sommario):
L'espace geographique n'est certainement pas une pure abstraction en soi. Il est le substrat de la culture au sens large du terme. Il est encore, le lieu de production et de reproduction des pratiques sociales, selon le type de rapport qui s'etablie entre l'homme et son environnement naturel et societal. C'est a partir de cette conception theorique et methodologique qu'on a essaye d'etudier le systeme des mecanismes et des correlations concernant le probleme d'occupation agricole de l'espace dans la region de marrakech, a l'aide des traitements des images satellitaires. Ce travail de cartographie automatique se termine par une reflexion methodologique sur l'homme, l'espace et la connaissance scientifique en general, dans le cadre de la modernite, c'est-a-dire dans les conditions actuelles de ce progres technique inacheve.
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Gimenez, Rollin. "Exploitation de données optiques multimodales pour la cartographie des espèces végétales suivant leur sensibilité aux impacts anthropiques". Electronic Thesis or Diss., Toulouse, ISAE, 2023. http://www.theses.fr/2023ESAE0030.

Testo completo
Abstract (sommario):
Les impacts anthropiques sur les sols végétalisés sont difficiles à caractériser à l'aide d’instruments de télédétection optique. Ces impacts peuvent cependant entrainer de graves conséquences environnementales. Leur détection indirecte est rendue possible par les altérations provoquées sur la biocénose et la physiologie des plantes, qui se traduisent par des changements de propriétés optiques au niveau de la plante et de la canopée. L'objectif de cette thèse est de cartographier les espèces végétales en fonction de leur sensibilité aux impacts anthropiques à l'aide de données de télédétection optique multimodale. Différents impacts anthropiques associés à des activités industrielles passées sont considérés (présence d'hydrocarbures dans le sol, contamination chimique polymétallique, remaniement et compactage du sol, etc.) dans un contexte végétal complexe (distribution hétérogène de diverses espèces de différentes strates). Les informations spectrales, temporelles et/ou morphologiques sont utilisées pour identifier les genres et espèces et caractériser leur état de santé afin de définir et de cartographier leur sensibilité aux différents impacts anthropiques. Des images hyperspectrales aéroportées, des séries temporelles Sentinel-2 et des modèles numériques d'élévation sont exploités indépendamment ou combinés. La démarche proposée repose sur trois étapes. La première consiste à cartographier les impacts anthropiques en combinant des données de télédétection optique et des données fournies par l'opérateur du site (analyses de sol, cartes d'activité, etc.). La seconde étape vise à développer une méthode de cartographie de la végétation à l'aide de données de télédétection optique adaptée à des contextes complexes tels que les sites industriels. Enfin, les variations de la biodiversité et des traits fonctionnels dérivées des images hyperspectrales aéroportées et des modèles numériques d'élévation sont analysées en relation avec la carte d'impact au cours de la troisième étape. Les espèces identifiées comme espèces invasives ainsi que celles en lien avec les pratiques agricoles et forestières et les mesures de biodiversité renseignent sur les impacts biologiques. La cartographie des strates de végétation et la caractérisation de la hauteur des arbres, liées à une succession secondaire, sont utilisées pour détecter les impacts physiques (remaniement du sol, excavations). Enfin, les conséquences du stress induit sur la signature spectrale des espèces sensibles permettent d'identifier les impacts chimiques. Plus précisément, dans le contexte de l'étude, les signatures spectrales de Quercus spp, Alnus glutinosa et des mélanges herbacés varient en fonction de l'acidité du sol, tandis que celles de Platanus x hispanica et des mélanges arbustifs présentent des différences dues aux autres impacts chimiques
Anthropogenic impacts on vegetated soils are difficult to characterize using optical remote sensing devices. However, these impacts can lead to serious environmental consequences. Their indirect detection is made possible by the induced alterations to biocenosis and plant physiology, which result in optical property changes at plant and canopy levels. The objective of this thesis is to map plant species based on their sensitivity to anthropogenic impacts using multimodal optical remote sensing data. Various anthropogenic impacts associated with past industrial activities are considered (presence of hydrocarbons in the soil, polymetallic chemical contamination, soil reworking and compaction, etc.) in a complex plant context (heterogeneous distribution of multiple species from different strata). Spectral, temporal and/or morphological information is used to identify genera and species and characterise their health status to define and map their sensitivity to the various anthropogenic impacts. Hyperspectral airborne images, Sentinel-2 time series and digital elevation models are then used independently or combined. The proposed scientific approach consists of three stages. The first one involves mapping anthropogenic impacts at site level by combining optical remote sensing data with data supplied by the site operator (soil analyses, activity maps, etc.). The second stage seeks to develop a vegetation mapping method using optical remote sensing data suitable to complex contexts like industrial sites. Finally, the variations in biodiversity and functional response traits derived from airborne hyperspectral images and digital elevation models are analysed in relation to the impact map during the third stage. The species identified as invasive species, as well as those related to agricultural and forestry practices, and biodiversity measures provide information about biological impacts. Vegetation strata mapping and characterisation of tree height, linked to secondary succession, are used to detect physical impacts (soil reworking, excavations). Finally, the consequences of induced stress on the spectral signature of susceptible species allow the identification of chemical impacts. Specifically, in the study context, the spectral signatures of Quercus spp., Alnus glutinosa, and grass mixtures vary with soil acidity, while those of Platanus x hispanica and shrub mixtures exhibit differences due to other chemical impacts
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia