Dissertations / Theses on the topic 'Cartographie d'utilisation des données'

To see the other types of publications on this topic, follow the link: Cartographie d'utilisation des données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Cartographie d'utilisation des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ramos, milis Guilherme. "Apport des mesures des compteurs Linky pour la connaissance des charges du réseau de distribution." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le réseau de distribution occupe une place centrale dans la transition énergétique. Cela se traduit par deux modifications clés pour le réseau : une (r)évolution des usages et une (r)évolution numérique. Dans ce contexte, cette thèse commence par dresser une nouvelle cartographie des usages des données provenant des compteurs intelligents. À partir de cette cartographie, la thèse va approfondir deux thématiques centrales d'une grande importance dans le contexte de transition énergétique. La première est une analyse du coefficient de foisonnement des charges Basse Tension (BT) et de son estimation. La seconde concerne l'estimation des courbes de charge des clients du réseau BT à partir d'une méthode innovante
The distribution grid occupies a central position in the energy transition. This results in two key changes for the network: an (r)evolution of uses and a digital (r)evolution. In this context, this thesis begins by creating a new mapping of the uses of data from smart meters. Building upon this mapping, the thesis will delve into two central themes of great importance in the context of energy transition. The first is an analysis of the Diversity Factor of Low Voltage (LV) charges and its estimation. The second involves estimating the load curves of customers on the LV grid using an innovative method
2

Baby, Jean-François. "Le traitement des données spatialisées par stations geomatiques." Aix-Marseille 2, 1991. http://www.theses.fr/1991AIX23005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'apparition puis la generalisation, ces dix dernieres annees, de la micro-informatique, rendent possible une ecriture graphique renouvelee du territoire. En meme temps l'augmentation du nombre de bases de donnees et la plus grande facilite d'acces a l'information demandent une nouvelle approche methodologique et permettent la diffusion d'une nouvelle information geographique. A travers deux experiences, la realisation d'une bvase de donnees urbaines de la commune de nice et l'elaboration d'un systeme d'observation economique local a la chambre de commerce et d'industrie nice-cote-d'azur, nous avons decrit la mise en oeuvre pragmatique d'une chaine complete du traitement de l'information spatiale : acquisition, traitement, et diffusion de message geographique. Ces realisations ont confirme la necessite d'un couple materiel logiciel specifique, dont nous decrivons les differentes composantes et que nous appelons station geomatique, mais surtout elles ont montre que le travail du geographe devait etre celui du "savoir-structurer" l'information pour mieux comprendre le monde, et mieux l'expliquer
The development of up-to-date computer aids now enable us to write down a new territorial geography, just as the increasing development in data banks offer new prospects in diffusing geographical messages our approach was pragmatic. We tried to put into practice a new method to process spatial data to our first experiment with the town planning department at the town hal in nice, involved establishing a cartographical data bank. Our second experiment is a larger department scale and is being carried at the cci nice-cote-d'azur both experiments have provided confirmation of our choice in "geomatic" computer aids, but furthemore to have the necessary tools in hans, and thesefore a complete step-by-step range of our data, from acquisition to distribution, is of primary importance
3

Ramos, Yuddy. "Étude du potentiel des données satellitaires pour la cartographie géologique." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/2628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Traditional methods and a lack of consensus and quality control in the delimitation of lithological units lead to differences and offsets at the contact zones between map sheets. On some geological maps, such inconsistencies considerably hinder exploration work. This study evaluates the contribution of remote sensing combined with a geoscientific knowledge base to produce bedrocks maps in a geologically complex and semi-arid region of the Peruvian Andes. The region is characterized by the presence of vegetation, snow and hydrothermal alteration. The results demonstrate the potential of ASTER-TIR emissivity data to discriminate lithological units characterized by differences in silica content. These units correspond to felsic plutonic, intermediate volcanic and sedimentary carbonate rocks with a map accuracy of 72% when compared to the available geological map. Specifically with regards to quartz zones, mapping by the two methods resulted in a comparative precision of 99%. The methodological approach also demonstrated that the potential of SWIR spectral bands is sufficiently high (precision of 84%) to detect many of the minerals associated with argillic and advanced argillic alteration in the study area.
4

Ferraz, António. "Cartographie 3D d'une forêt à partir de données LIDAR aéroporté." Paris, Institut de physique du globe, 2012. http://www.theses.fr/2012GLOB0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les inventaires forestiers traditionnels décrivent des peuplements forestiers à travers de la taille et de la distribution spatial des plantes au sein de chacune des couches : végétation arbustive, sous-bois et canopée. Le LiDAR aéroporté suscite actuellement un intérêt considérable pour la caractérisation des milieux forestiers car il s’agit de la technique de télédétection la plus adaptée pour décrire sa structure 3D. En fait, le faisceau laser est capable de pénétrer à travers de la canopée et atteindre le sous-bois, la végétation arbustive et même le sol. En conséquence, le LiDAR fournit un nuage de points 3D qui est un modèle discret de la structure de la forêt. Cependant, la plupart des méthodes d’analyse s’intéressent uniquement aux caractéristiques de la canopée et, par conséquence, ne sont pas adaptées pour caractériser des forêts multicouches tel que les écosystèmes forestiers méditerranéens. Ce manuscrit présente la première approche visant à caractériser la totalité de la structure 3D d’une forêt en explorant au maximum la capacité du LiDAR pour la caractérisation des structures forestières complexes. Les nuages des points LiDAR sont décomposés en segments 3D qui correspondent à des couronnes individuelles des plantes dans chacune des couches : végétation arbustive, sous-bois et canopée. Les nuages de points 3D sont assimilés à une distribution multimodale, dont chaque mode, ici défini comme un maximum local en densité et en hauteur, correspond aux apex des couronnes des plantes. Les modes du nuage de points, c��est-à-dire le nombre d’arbres au sein d’un peuplement, sont calculés par une méthode basée sur l’algorithme du mean-shift. Il s’agit d’une méthode statistique pour calculer les modes d’une densité de points qui découle des techniques d’estimation par noyau. On introduit un noyau 3D adapté pour extraire les couronnes de plantes à partir des nuages des points LiDAR. Notre méthode est une approche multi-échelle car le volume du noyau 3D doit être adapté à la taille des objets à extraire, et les couronnes des arbres de la canopée sont considérablement plus grandes que celles des plantes du sous-bois ou des arbustes. La méthode résultante est appelée mean shift à noyau adaptatif : le MSA 3D. Notre méthode est validée sur 44 placettes d’une forêt portugaise composées essentiellement d’eucalyptus (Eucalyptus globulus Labill. ) et de pin maritime (Pinus pinaster Ait. ). Le nombre de arbres détectées varie selon leur rang social: de 98. 6% pour les arbres dominants à 12. 8% pour les arbres opprimées. Des modèles de regression linéaire expliquent jusqu’à 70% de la variabilité associée à la végétation arbustive et au sous-bois
Traditional forest inventories characterize forest stands by means of the size and spatial distribution of plants within each stratum: ground vegetation, understory and overstory. Airborne laser scanning (ALS) has gained considerable interest in forestry because is the remote sensing technique the best adapted to describe the 3D forest structure. Actually, the laser beam is able to penetrate down into the forest strata. As a result, the ALS devices provide a 3-D point cloud that is a discrete model of the forest structure. However, most studies only investigate the overstory characteristics and therefore they are not adapted to characterize multi-layered forest such as the Mediterranean ecosystems. This manuscript presents the first approach to characterize the complete 3-D forest structure taking full advantage of the ALS aptitude to describe complex forest structures. The ALS point clouds are decomposed into 3-D segments that correspond to individual plant crows of each forest stratum: ground vegetation, understory and overstory. The ALS point cloud is regarded as a multimodal distribution where each mode, here defined as a local maximum both in density and height, corresponds to a crown apex. The modes of the point cloud, i. E. The number of trees within a forest stand, are calculated using a method based on the mean shift algorithm. It is a kernel density estimation technique that calculates the modes of a density function. We introduce a 3D kernel adapted to extract plants crowns using ALS data. Our method is a multi-scale approach because the 3D kernel dimension must be adapted to the size of the objects to be extracted, and crowns of dominant trees are significantly larger than those of understory trees or bushes. The resulting method is called MSA 3D for adapted 3-D mean shift segmentation. It is validated on 44 plots of a Portuguese forest, composed mainly of eucalyptus (Eucalyptus globulus Labill. ) and maritime pine (Pinus pinaster Ait. ) trees. The number of detected trees varies with the dominance position: from 98. 6% for the dominant trees to 12. 8% for the suppressed trees. Linear regression models explain up to 70% of the variability associated with ground vegetation and understory height
5

Ben, Ticha Mohamed Bassam. "Fusion de données satellitaires pour la cartographie du potentiel éolien offshore." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://tel.archives-ouvertes.fr/tel-00198912.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'énergie éolienne est une des composantes d'une politique énergétique permettant de réaliser un développement durable. Ces dernières années, des parcs éoliens offshore ont été installés. Ces parcs bénéficient d'un vent plus fort et plus régulier en mer que sur terre. Pour un choix judicieux des lieux d'implantation des parcs éoliens, il est nécessaire de disposer d'une cartographie du potentiel éolien. Ces cartes doivent être à haute résolution spatiale pour détecter les variations du potentiel à l'échelle d'un parc éolien. La cartographie du potentiel éolien se fait au travers de la description de la variation spatiale des paramètres statistiques caractérisant la climatologie du vent. Pour une estimation précise de ces paramètres statistiques, il est nécessaire d'avoir des mesures de vitesse et de direction du vent à haute résolution temporelle. Cependant, aucune source de données, actuelle, n'allie la haute résolution spatiale et la haute résolution temporelle. On propose une méthode de fusion de données permettant de tirer profit de la haute résolution spatiale de certains instruments de télédétection (les radars à ouverture synthétiques) et de la haute résolution temporelle d'autres instruments de télédétection (les radars diffusomètres). La méthode de fusion est appliquée à un cas d'étude et les résultats sont évalués. Les résultats montrent la pertinence de la fusion de données pour la cartographie du potentiel éolien offshore.
6

Cazals, Cécile. "Apport des données Sentinel-1 pour la cartographie des milieux humides." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1226/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les milieux humides sont menacés par le changement climatique et l'anthropisation des milieux naturels. La télédétection est un moyen efficace de suivre des variables environnementales sur de grands espaces. Cependant, lorsqu’il s’agit de l’étude de la dynamique hydrologique, une résolution temporelle importante est indispensable. Or celle-ci est difficilement accessible par l'imagerie optique satellitaire du fait de l’important couvert nuageux qui masque le sol. Les capteurs radars, travaillant dans le domaine des micro-ondes, sont tout particulièrement adaptés à la caractérisation des dynamiques hydrologiques grâce à la sensibilité de leurs mesures en présence d’eau et ce quelque soit la végétation en place. Il en découle que toutes les acquisitions Radar à Synthèse d’Ouverture (RSO) sont exploitables, acquises de jour comme de nuit, quel que soit le couvert nuageux.Récemment la télédétection radar satellitaire a vécu une véritable révolution grâce au lancement du satellite Sentinel-1A en 2014 suivi de son jumeaux Sentinel-1B deux ans plus tard par l'Agence Spatiale Européenne dans le cadre du programme Copernicus. Ces capteurs acquièrent des données en bande C (λ = 5,6 cm) sur toute l'Europe chaque 12 jours par satellite et leur diffusion est libre et gratuite pour tous. Le présent travail de thèse vise à évaluer le potentiel de ces données à haute résolution temporelle pour le suivi des surfaces d'eau et des milieux humides.Dans une première partie consacrée à la cartographie des surfaces d'eau, nous avons identifié une confusion la réponse radar en bande C des surfaces d'eau et celle de certains sols nus. Nous avons alors montré que la période hivernale est celle qui présente le moins d’ambiguïté et que la polarisation VH est la plus adaptée à la cartographie des surfaces en eau. Quatre méthodes de détection des zones en eau ont été comparées, il résulte que l’utilisation de méthodes non-supervisées sans données a priori n'est pas envisageable et que les méthodes prenant en compte le voisinage spatial donnent de meilleurs résultats. Un filtrage temporel a été mis au point et a permis d'améliorer la détection et de s'affranchir des confusions entre sols nus et surfaces d'eau permanentes. Les surfaces d'eau de plus de 0,5 ha ont plus de 80 % de chances d'être détectées.Un second volet de cette thèse est consacré au suivi d'une zone humide prairiale par télédétection radar. L'utilisation d'images pleinement polarimétriques a montré que la configuration de polarimétrie partielle VV/VH disponible sur le capteur de Sentinel-1 permet de caractériser l'inondation prairiale avec ou sans végétation. Une méthode prenant en compte l'information de voisinage temporel a permis de traiter une série de 14 images Sentinel-1 pour obtenir 14 cartes d'inondation pour l’année 2015. Une estimation de la précision à l'échelle intra-parcellaire a été mise au point, il apparaît que si la précision est relativement bonne (80 %), le rappel est assez bas (40 %). Cette méthode permet d'établir des bilans d'évolution intra- et inter-annuels.Cette thèse a montré le potentiel de l'utilisation d'images radar à haute résolution temporelle tant pour la cartographie des surfaces en eau que pour le suivi d'une zone humide prairiale
Wetlands are threatened by climate change and the anthropization of natural environments. Satellite remote sensing is useful for environmental monitoring at large areas. However, when it comes to the study of hydrological dynamics, a significant temporal resolution is essential. The latter is difficult to reach with optical satellite imagery because of the cloud cover that masks the ground. Radar sensors are well suited to the characterization of hydrological dynamics thanks to the sensitivity of their measurements in the presence of water, whatever the vegetation in place. As a result, all Synthetic Aperture Radar (SAR) acquisitions are available, both day and night, regardless of cloud cover.Satellite radar remote sensing has gone through a revolution with the launch of the Sentinel-1A satellite, followed by its twins Sentinel-1B by the European Space Agency as part of the Copernicus program in 2014. These sensors acquire C-band data (λ = 5.6 cm) on a regular basis on Europe and their distribution is free for all users. Their temporal frequency initially of 12 days has decreased to 6 days from the end of 2016. This work aims at evaluating the potential of these data with high temporal resolution for the monitoring of water bodies and wetlands.The first part of this thesis focuses on water bodies mapping. We found confusion in the C-band radar response between water surfaces and that of some bare soils. We showed that the winter period is the least ambiguous and that the VH polarization is the most suitable for the mapping of water surfaces. Four methods of water detection have been compared. It appears that the use of unsupervised methods without a priori data is not conceivable and that the methods taking into account the spatial neighborhood give better results. Temporal filtering has been developed and has improved detection and avoided confusion between bare soil and permanent water surfaces. Water surfaces of more than 0.5 ha are more than 80% likely to be detected.A second part of this thesis is devoted to the monitoring of wet grasslands by radar remote sensing. The use of fully polarimetric data has shown that the VV/VH partial polarimetry configuration available on the Sentinel-1 sensor is able to characterize the prairial floods with or without vegetation. A method taking into account the temporal neighborhood allowed to process a series of 14 Sentinel-1 images to obtain 14 flood maps. The accuracy of floods maps at the intra-parcel scale has been estimated, it appears that if the precision is relatively good (80%), but the recall is rather low (40%). This method allow to establish intra- and inter-annual monitoring.This thesis has shown the potential of high temporal resolution radar images for the mapping of the water surfaces and for the monitoring of a wetland meadow
7

Lardeux, Cédric. "Apport des données radar polarimétriques pour la cartographie en milieu tropical." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00481850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les capteurs RSO (Radar à Synthèse d'Ouverture) fournissent des observations des surfaces terrestres de manière continue depuis 1991 avec la mise en orbite du satellite ERS-1. Les données acquises jusqu'à peu, principalement basées sur l'exploitation de l'intensité du signal acquis selon une configuration de polarisation particulière, ont été l'objet de nombreuses études, notamment sur le suivi de la déforestation. Depuis 2007, de nouveaux capteurs RSO polarimétriques (PALSAR, RADARSAT-2, TerraSAR-X...) permettent la caractérisation polarimétrique des surfaces observées. Ces données nécessitent des traitements adpatés afin d'en extraire l'information la plus pertinente pour la thématique considérée. L'objet de ces travaux a été d'évaluer leur potentiel pour la cartographie de surfaces naturelles en milieu tropical. L'apport des multiples indices polarimétriques a été évalué à partir de l'algorithme de classification SVM (Machines à Vecteurs de Support). Cet algorithme est spécialement adapté pour prendre en compte un grand nombre d'indices non forcément homogènes. Les données utilisées ont été acquises par le capteur aéroporté AIRSAR sur une île en Polynésie Française. De nombreux relevés in situ ont permis la validation des résultats obtenus. Les résultats montrent que la sensibilité de ces données à la structure géométrique des surfaces observées permet une bonne discrimination entre les différents couvert végétaux étudiés, en particulier des types de forêts. De plus, la classification obtenue à partir de la méthode SVM est particulièrement plus performante que la classification usuelle basée sur la distribution de Wishart vérifiée a priori par les données radar. Ces résultats laissent présager de l'apport significatif des données radar polarimétriques futures pour le suivi des surfaces naturelles
8

Viau, Laetitia. "Visualisation de données quantitatives géolocalisées." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les données quantitatives géolocalisées, i.e. les données quantitatives associées à des entités géographiques, sont très couramment analysées pour comprendre, expliquer et prédire des phénomènes de différentes natures. La visualisation d'informations est quant à elle un support très efficace pour analyser des données. Elle permet non seulement de les synthétiser mais également de les explorer en vue de formuler de nouvelles hypothèses.Dans ce mémoire, nous nous intéressons à la visualisation de données quantitatives associées à des entités géographiques, comme par exemple des pays, des régions... Nous distinguons deux cas de figure. Dans le premier, les données sont associées à des entités géographiques indépendantes, c'est-à-dire que chaque valeur des données ne concerne qu'une seule entité. Par exemple, le PIB ou la population des pays rentrent dans ce cas. Dans le second cas, les données sont associées à des relations entre des entités géographiques. Cette fois-ci, une valeur concerne une paire d'entités géographiques. Par exemple, les quantités de marchandises échangées entre pays rentrent dans ce cas.Ces deux cas de figure nous ont permis de proposer trois contributions. La première concerne la conception d'une interface visuelle d'exploration de données dédiée à la comparaison, par juxtaposition, de variables géolocalisées. Sa réalisation dans le cadre d'un projet en épidémiologie a donné lieu au déploiement d'une plateforme nommée Epid Data Explorer. La seconde contribution est une étude utilisateur mise en place dans le but de comparer différentes techniques de cartographie bivariée, i.e. montrant deux variables quantitatives. Ces deux premières contributions concernent la visualisation de données associées à des entités géographiques indépendantes. La troisième contribution est l'élaboration et l'implémentation d'un algorithme de distorsion de fond de carte d'une carte de flux pour en faciliter la lecture. Elle porte donc sur la visualisation de données associées à des relations entre entités géographiques
Geographically referenced quantitative data, i.e., quantitative data associated with geographical entities, are commonly analyzed to understand, explain, and predict various phenomena. Information visualization, on the other hand, is a highly effective tool for data analysis. It not only helps in summarizing data but also facilitates exploration with the aim of generating new hypotheses.In this thesis, we focus on the visualization of quantitative data associated with geographical entities, such as countries, regions, .... We distinguish between two scenarios. In the first scenario, data is linked to independent geographical entities, meaning that each data value pertains to a single entity. For example, GDP or population data falls into this category. In the second scenario, data is associated with relationships between geographical entities. In this case, a value pertains to a pair of geographical entities. For instance, quantities of traded goods between countries fit into this category.These two scenarios have allowed us to make three contributions. The first one concerns the design of a dedicated data exploration visual interface for the comparison, by juxtaposition, of geolocated variables. Its implementation in the context of an epidemiology project led to the deployment of a platform called Epid Data Explorer. The second contribution is a user study established to compare various bivariate mapping techniques, i.e., those displaying two quantitative variables. These first two contributions pertain to the visualization of data associated with independent geographical entities. The third contribution is the development and implementation of a map background distortion algorithm for a flow map to facilitate its readability. Thus, it focuses on the visualization of data associated with relationships between geographical entities
9

Fournier, Jonathan. "Exploitation de données tridimensionnelles pour la cartographie et l'exploration autonome d'environnements urbains." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24421/24421.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Maddi, Abdelghani. "La quantification de la recherche scientifique et ses enjeux : bases de données, indicateurs et cartographie des données bibliométriques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La question de la productivité et de la « qualité » de la recherche scientifique est l’une des problématiques centrales du monde économique et social du 21e siècle. Car la recherche scientifique, source d’innovations dans tous les domaines, est considérée comme la clé du développement économique et de compétitivité. La science doit également contribuer aux défis sociétaux définis dans les programmes cadre européens (H2020) par exemple, tels que la santé, la démographie et le bien-être. Afin de rationaliser les dépenses publiques de recherche et d’innovation ou encore orienter les stratégies d’investissement des bailleurs de fonds, plusieurs indicateurs ce sont développés pour mesurer les performances des entités de recherche. Désormais, nul ne peut échapper à l’évaluation, à commencer par les articles de recherche, en passant par les chercheurs, jusqu’aux institutions et aux pays (Pansu, 2013, Gingras, 2016). Faute de manque de recul méthodologique, les indicateurs quantitatifs sont parfois mal utilisés en négligeant tous les aspects liés à leur méthode de calcul/normalisation, ce qu’ils représentent ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Cette situation risque d’avoir des conséquences désastreuses sur le plan scientifique et social. Notre travail envisage d’examiner les outils de la bibliométrie évaluative (indicateurs et bases de données) afin de mesurer les enjeux liés à l’évaluation quantitative des performances scientifiques. Nous montrons au travers de cette recherche que les indicateurs quantitatifs, ne peuvent jamais être utilisés à eux seuls pour mesurer la qualité des entités de recherche étant donnée les disparités des résultats selon les périmètres d’analyse, les problèmes ex-ante liés aux caractéristiques individuelles des chercheurs qui affectent directement les indicateurs quantitatifs, ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Pour une évaluation responsable, il est impératif d’accompagner les mesures quantitatives par une appréciation qualitative des pairs. Par ailleurs, nous avons également examiné l’efficacité des mesures quantitatives pour des fins de compréhension de l’évolution des sciences et la formation des communautés scientifiques. Notre analyse appliquée sur un corpus de publications traitant la thématique de la crise économique nous a permis de montrer à la fois les auteurs et courants de pensée dominants, ainsi que l’évolution temporelle des termes utilisés dans cette thématique
The issue of productivity and the "quality" of scientific research is one of the central issues of the 21st century in the economic and social world. Scientific research, source of innovation in all fields, is considered the key to economic development and competitiveness. Science must also contribute to the societal challenges defined in the Framework Programmes for Research and Technological Development (H2020) for example, such as health, demography and well-being. In order to rationalize public spending on research and innovation or to guide the investment strategies of funders, several indicators are developed to measure the performance of research entities. Now, no one can escape evaluation, starting with research articles, researchers, institutions and countries (Pansu, 2013, Gingras, 2016). For lack of methodological comprehension, quantitative indicators are sometimes misused by neglecting the aspects related to their method of calculation / normalization, what they represent or the inadequacies of the databases from which they are calculated. This situation may have disastrous scientific and social consequences. Our work plans to examine the tools of evaluative bibliometrics (indicators and databases) in order to measure the issues related to the quantitative evaluation of scientific performances. We show through this research that the quantitative indicators, can never be used alone to measure the quality of the research entities given the disparities of the results according to the analysis perimeters, the ex-ante problems related to the individual characteristics of researchers who directly affect the quantitative indicators, or the shortcomings of the databases from which they are calculated. For a responsible evaluation, it is imperative to accompany the quantitative measures by a qualitative assessment of the peers. In addition, we also examined the effectiveness of quantitative measures for the purpose of understanding the evolution of science and the formation of scientific communities. Our analysis, applied to a corpus of publications dealing the economic crisis, allowed us to show the dominant authors and currents of thought, as well as the temporal evolution of the terms used in this thematic
11

Mascret, Ariane. "Développement d’une approche SIG pour l’intégration de données Terre/Mer." Paris, ENSAM, 2010. http://www.theses.fr/2010ENAM0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le domaine maritime littoral constitue un milieu fragile, placé à l’interface Terre/Mer où s’exercent de nombreuses pressions issues des milieux terrestres, maritimes et atmosphériques. Les approches globales de Gestion Intégrée des Zones Côtières (GIZC) ont pour but de pallier les lacunes des politiques précédentes au niveau des interactions simultanées des différents acteurs du littoral. Cette approche requiert un Modèle Numérique de Terrain (MNT) littoral continu ainsi que des données maritimes et terrestres cohérentes entre elles. En raison d’acquisitions ou de productions différentes pour les MNT terrestres et maritimes, l’ensemble du relief n’est pas traité de manière ni homogène ni continue. De plus les techniques d’intégration des MNT actuelles entraînent des lissages des reliefs, voire la perte des éléments caractéristiques. Des outils et une nouvelle méthodologie d’intégration de MNT ont donc été définis. Les outils utilisent la distance de Fréchet pour calculer une distance maximale d’écartement entre les points homologues de deux lignes. La valeur de cette distance donne une mesure de ressemblance de forme qui sert de base à leur appariement ultérieur. La méthodologie de fusion proposée dans cette thèse se veut générique tout en s’appuyant sur les lignes caractéristiques spécifiques du paysage. Elle effectue un enchaînement de traitements répartis en trois étapes majeures : 1) transformations cartographiques et analyse des zones de recouvrement ; 2) segmentation et extraction de lignes caractéristiques ; 3) appariement et fusion à l’aide de déformations élastiques. Ces outils d’intégration ont été testés sur des données réelles en 2D pour la comparaison du trait de côte, puis validés sur des MNT simulés 3D
The coastal domain is a delicate environment standing at the land/sea border, an area where the terrestrial, the maritime and the atmospheric areas all exert their own forms of influence and pressure. Today’s more comprehensive management of the coasts aims to overcome the failings demonstrated in previous policies by considering all simultaneous interactions from the various littoral actors. This approach requires a seamless Digital Elevation Model (DEM) with coherent terrestrial and maritime data. Owing to the diversity in the sources of captured data and in the methods of DEM production, the relief as a whole is rarely processed with continuity and homogeneity. Moreover, the current DEM integration techniques usually result in smoothing the relief or in the loss of the relief’s main features. That is why new tools and a whole DEM integration method were defined. These tools use the Fréchet distance to compute a maximum distance gap between homologous points from two lines. The value of this distance gives a shape similarity measure which is used as a reference in the later matching process. The merging methodology presented in this PhD purports to be generic with a specifical landscape feature line basis. It performs a sequence of processing divided into three main steps: 1) cartographic transformations and overlapping area analysis; 2) segmentation and feature lines extraction; 3) DEM matching and merging with rubber sheeting deformations. Those integration tools were tested in 2D on real data for the coastline comparison, and then validated on simulated DEM
12

Ogier, Jean-Marc. "Contribution à l'analyse automatique de documents cartographiques. Interprétation de données cadastrales." Rouen, 1994. http://www.theses.fr/1994ROUES008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire abordent le problème de l'analyse automatique de documents cartographiques. L'application proposée concerne l'interprétation des documents cadastraux français. La méthodologie employée s'appuie sur des résultats d'études sur la perception visuelle et sur une description hiérarchisée du document. La stratégie, basée sur le modèle du document, utilise une approche mixte avec différents points de vue sur l'image à traiter. La partie descendante est caractérisée par un ensemble de traitements qui, grâce à une analyse multi-résolution de l'image, permettent d'émettre des hypothèses sur la structure globale de l'image. Les hypothèses émises par ce point de vue sont validées par un ensemble de traitements d'analyse de l'image. Cette analyse est réalisée selon différents niveaux hiérarchiques sur lesquels sont implantés des spécialistes charges de l'extraction de caractéristiques spécifiques au document traité. Dans le cas du cadastre, ces spécialistes traitent de l'analyse des zones texturées, de l'extraction des objets linéaires, de la reconnaissance des caractères et de la reconstitution des entités cadastrales. Les résultats de cette analyse mixte peuvent mettre en évidence des objets non interprétables au sens du cadastre, à cause d'incohérences sémantiques dues à différents facteurs. Une stratégie d'analyse est alors proposée, elle permet grâce à des cycles d'aller-retours entre les traitements hauts et bas niveaux, de résoudre les incohérences de façon autonome. Les résultats présentés, issus de tests effectués sur des données de laboratoire, laissent augurer de bonnes performances sur des bases de données plus importantes et permettent d'envisager l'adaptabilité de la stratégie à d'autres types de documents
13

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
14

Ung, Anthony. "Cartographie de la pollution atmosphérique en milieu urbain a l'aide de données multisources." Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://tel.archives-ouvertes.fr/tel-00004209.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Sept ans après l'application de la loi sur l'air de 1996, toutes les villes de France de plus de 100 000 habitants possèdent désormais un réseau de surveillance de la qualité de l'air. La qualité de l'air s'améliore progressivement selon certaines études. Pour autant, des effets néfastes sur la santé des habitants et l'environnement subsistent. Il devient nécessaire de caractériser au mieux le risque induit par la pollution. Cela passe par une meilleure connaissance de la distribution spatiale des polluants. L'analyse des outils actuels de surveillance montre que cette dernière information n'est actuellement pas disponible en zone urbaine et à petite résolution spatiale. Pourtant ces outils sont complémentaires pour une bonne compréhension de la distribution spatiale des polluants. De cette analyse, nous proposons une méthode de fusion de toutes les informations pour une meilleure cartographie de la pollution atmosphérique en milieu urbain. La démarche repose sur la possibilité de cartographier les petites structures d'un champ de concentration de polluants, appelé « champ typique ». La cartographie est effectuée en densifiant le nombre de points pris pour une cartographie par interpolation. Cette étude est menée en trois étapes. La première étape concerne la caractérisation des stations de mesures et de la ville entière. Des images satellitaires Landsat, des mesures in situ, un cadastre d'émission et une base de données géographiques sont utilisés pour définir des « cartes d'identité ». La deuxième étape met à profit ces cartes d'identité pour localiser des « pseudostations », lieux de la ville présentant des attributs similaires à une station de mesures. Enfin la dernière étape s'intéresse à l'estimation de la concentration en polluants par télédétection. Les pseudostations deviennent alors des stations virtuelles. La démarche est originale dans le sens où elle fait appel à des données de sources diverses qui permettent d'assurer une cohérence de la cartographie entre les échelles spatiales.
15

Ung, Anthony. "Cartographie de la pollution atmosphérique en milieu urbain à l'aide de données multisources." Paris 7, 2003. http://www.theses.fr/2003PA077122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Mezian, Miloud. "Recalage conjoint de données de cartographie mobile et de modèles 3D de bâtiments." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis de nombreuses années, des véhicules de numérisation mobiles terrestres ont été développés pour acquérir simultanément des données laser extrêmement précises et des images haute résolution géo-référencées. Une application majeure de ces données consiste à exploiter leur niveau de détail très élevé pour enrichir les bases de données géographiques 3D construites à partir d'images aériennes et donc de niveau de détail beaucoup plus faible. Les bases de données géographique 3D et les données mobiles terrestre se révèle très complémentaire : les toits sont vus en aériens mais pas en terrestre, et les façades sont très mal vues en aérien mais très précisément en terrestre. Les bases de données géographiques sont constituées d’un ensemble de primitives géométriques (des triangles en 3D) d’un niveau de détail grossier mais ont l’avantage d’être disponibles sur de vastes zones géographiques. Les véhicules de numérisation mobiles offrent une couverture beaucoup plus partielle mais garantissent des données d’un niveau de détail très fin. Ces véhicules présentent aussi des limites : en milieu urbain, le signal GPS nécessaire au bon géo-référencement des données peut être perturbé par les multi-trajets voire même stoppé lors de phénomènes de masquage GPS liés à l'étroitesse des rues ou la hauteur des bâtiments. Le capteur GPS ne capte plus assez de satellites pour en déduire précisément sa position spatiale. Ces données complémentaires disposent chacune de son propre géo-référencement et ses propres incertitudes de géolocalisation allant de quelques centimètres à plusieurs mètres. Ce qui entraîne que les différents jeux de données d'une même zone ne coïncident pas. C’est pourquoi, un recalage est indispensable pour mettre en cohérence ces données mobiles très détaillées avec les bases de données géographiques moins détaillées. Dans cette thèse, nous avons modélisé finement toutes les sources d'incertitudes qui interviennent à la fois dans le processus de construction du nuage de points laser et de la base de données géographique pour recaler conjointement (simultanément) les données entre-elles. Le travail autour des incertitudes permet de les modéliser pour ensuite les exploiter dans le processus de recalage et de les propager sur le produit final avec une méthode de Gauss-Helmert. Le processus est basé sur une méthode de type ICP ("Iterative Closest Point") point à plan. Ce recalage corrige simultanément la trajectoire du véhicule de cartographie mobile et le modèle géométrique 3D. Notre chaîne de traitements a été testée sur des données simulées provenant de différentes missions effectuées par l’Institut National de l’Information Géographique et Forestière (IGN)
For many years, mobile land scanning vehicles have been developed to simultaneously acquire highly accurate laser data and high-resolution georeferenced images. A major application of these data is to exploit their very high level of detail (LOD) to enrich the 3D geographic databases built from aerial images and therefore much lower LOD. The 3Dgeographic databases and mobile terrestrial data prove to be very complementary: roofs are seen from the air but not on land, and facades are very poorly seen from the air but very precisely on land. Geographic databases consist of a set of geometric primitives (3D triangles) of coarse LOD, but present the advantage of being available over large geographical areas. Mobile mapping vehicles offer much more partial coverage but guarantee very fine LOD data. These vehicles also have limitations: in urban environments, the GPS signal needed for good data georeferencing is liable to being disrupted by multi-paths or even stopped during GPS masking phenomena linked to narrow streets or high buildings. The GPS sensor no longer picks up enough satellites to accurately determine its spatial position. These complementary data each have their own geo-referencing and geolocation uncertainties of drift, ranging from a few centimetres to several metres. This means that different datasets in the same area do not coincide. That is why a realignment is essential to bring this highly detailed mobile data into line with the less detailed geographical databases.In this thesis, we have finely modelled all the sources of uncertainty involved in boththe process of building the lidar point cloud and the geographic database to jointly (simultaneously) re-align the data between them. This work around uncertainties makes it possible to model them, then to exploit them in the realignment process, and finally to to propagate them on the final product, by means of a Gauss-Helmert model. The process is based on an Point to plane ICP (Iterative Closest Point) method. This realignment simultaneously corrects the (path) trajectory of the mobile mapping vehicle and the 3D geometric model. Our processing chain has been tested on simulated data from various missions carried out by the National Institute of Geographical and Forest Information (Institut National de l’Information Géographique et Forestière, IGN)
17

Grotte, Alain. "Méthode de cartographie des couvertures algales et sédimentaires à partir de données de télédétection." Brest, 1992. http://www.theses.fr/1992BRES1003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'inscrit dans les études de développement contribuant à la connaissance des objets du littoral à partir de données satellite à haute résolution. La première partie développe les bases de la cartographie classique, présente les applications possibles avec les données satellitaires. Le chapitre I donne les notions de cartographie. Cela permet de voir combien elles sont importantes pour comprendre certains prétraitements de données des satellites présentes au chapitre II. Le second chapitre qui aborde les satellites à haute résolution, fait l'inventaire des radiomètres mis à bord de ces plateformes. Les données de capteur, sont disponibles dans des standards simples, donc accessibles à tous, avec un peu d'investissement en matériels et logiciels. Les produits informatiques sont très conviviaux et moyennant quelques séances d'entraînement, un néophyte en la matière, va constater quelques résultats encourageants. La mise en forme cartographique (s'entend assistée par ordinateur) est la suite obligée pour mieux situer les données dans l'espace géographique de l'étude réalisée. C'est l'objet du troisième chapitre qui fait la relation entre la cartograpghie traditionnelle, les données des satellites et un module de système d'information géographique, qui permet l'habillage cartographique de la donnée. La méthodologie est développée et des chemins sont proposés pour aboutir à une standardisation de rédaction des spatiocartes ou cartes régulières qui sont établies à l'IFREMER. La seconde partie correspond à l'étude des principaux objets que l'on rencontre sur le littoral, lieu de convoitise pour les uns et zone à protéger pour les autres. Les données image de SPOT servent de support d'étude, car c'est à l'heure actuelle le satellite qui présente la meilleure résolution au sol en mode multispectral
This work forms part of the development studies contributing to the knowledge of coastal features by using high resolution satellite data. The first part deals with conventional cartography bases and describes possible applications using satellite data. Chapter 1 is devoted to notions of cartography, and shows their importance in understanding certain types of satellite data pre-processing described in chapter ii. The second chapter, which deals with high resolution satellites, reviews the radiometers placed on board these platforms. Whatever the type of sensor, image data is available in simple standards, and therefore accessible to everyone providing a small investment is made in hardware and software. I. T. Products are very user-friendly and after a few training sessions a complete beginner in this field can already obtain some encouraging results. Cartographic formatting (computer-assisted) is obviously the next step for correctly positioning this data in the geographic area of the study. This is dealt with in the third chapter which draws the connection between traditional cartography, satellite data and a geographic information system module, which is used to add cartographic annotations to the data. The methodology is developed and procedures proposed for achieving standardized mapping of the space maps or normal maps drawn up at Ifremer
18

Girardeau-Montaut, Daniel. "Détection de changement sur des données géométriques tridimensionnelles." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001745.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
19

Cosma, Ioana-Mihaela. "Modèle de données pour la production cartographique sur le Web : mise en oeuvre des représentations multiples en GML." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/21761/21761.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La diffusion des informations spatiales sur support cartographique constitue un défi lorsque le contexte d’utilisation des cartes est l’Internet et que les services cartographiques sont offerts pour tout type de terminal (fixe ou mobile, de type Desktop, ordinateur portable, PDA ou téléphone cellulaire). Une des techniques utilisées pour attaquer ce défi est le stockage des données avec représentations multiples et le filtrage parmi ces représentations lors de la création d’une carte à la volée. L’émergence d’un nouveau standard pour la modélisation, le transport et le stockage de l’information géographique, le GML, a ouvert de nouvelles pistes de recherche pour trouver un modèle de données mieux adapté au stockage des représentations multiples des objets géographiques et l’utilisation de ces données dans un contexte Web. Le développement d’un tel modèle de données, ainsi que son implantation ont fait l’objet de cette recherche. Ainsi, nous proposons la mise en œuvre des représentations multiples dans un modèle de données en GML.
20

Delassus, Rémi. "Apprentissage automatique pour la détection d'anomalies dans les données ouvertes : application à la cartographie." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0230/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous étudions le problème de détection d’anomalies dans les données ouvertes utilisées par l’entreprise Qucit ; aussi bien les données métiers de ses clients, que celles permettant de les contextualiser. Dans un premier temps, nous nous sommes intéressés à la détection de vélos défectueux au sein des données de trajets du système de vélo en libre service de New York. Nous cherchons des données reflétant une anomalie dans la réalité. Des caractéristiques décrivant le comportement de chaque vélo observé sont partitionnés. Les comportements anormaux sont extraits depuis ce partitionnement et comparés aux rapports mensuels indiquant le nombre de vélos réparés ; c’est un problème d’apprentissage à sortie agrégée. Les résultats de ce premier travail se sont avérés insatisfaisant en raison de la pauvreté des données. Ce premier volet des travaux a ensuite laissé place à une problématique tournée vers la détection de bâtiments au sein d’images satellites. Nous cherchons des anomalies dans les données géographiques qui ne reflètent pas la réalité. Nous proposons une méthode de fusion de modèles de segmentation améliorant la métrique d’erreur jusqu’à +7% par rapport à la méthode standard. Nous évaluons la robustesse de notre modèle face à la suppression de bâtiments dans les étiquettes, afin de déterminer à quel point les omissions sont susceptibles d’en altérer les résultats. Ce type de bruit est communément rencontré au sein des données OpenStreetMap, régulièrement utilisées par Qucit, et la robustesse observée indique qu’il pourrait être corrigé
In this thesis we study the problem of anomaly detection in the open data used by the Qucit company, both the business data of its customers, as well as those allowing to contextualize them.We are looking for data that reflects an anomaly in reality. Initially, we were interested in detecting defective bicycles in the trip data of New York’s bike share system. Characteristics describing the behaviour of each observed bicycle are clustered. Abnormal behaviors are extracted from this clustering and compared to monthly reports indicating the number of bikes repaired; this is an aggregate learning problem. The results of this first work were unsatisfactory due to the paucity of data. This first part of the work then gave way to a problem focused on the detection of buildings within satellite images. We are looking for anomalies in the geographical data that do not reflect reality. We propose a method of merging segmentation models that improves the error metric by up to +7% over the standard method. We assess the robustness of our model to the removal of buildings from labels to determine the extent to which omissions are likely to alter the results. This type of noise is commonly encountered within the OpenStreetMap data, regularly used by Qucit, and the robustness observed indicates that it could be corrected
21

Wang, Xiaoqiang. "Apport des données d’expression génique à la cartographie de QTL chez les espèces d’élevage." Rennes, Agrocampus Ouest, 2011. http://www.theses.fr/2011NSARB218.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche du polymorphisme causal d’un QTL est une étape encore longue et difficile dans la plupart des espèces d’animaux domestiques. Dans ce cadre, ce travail porte sur l’intégration d’informations à haut débit sur l’expression des gènes dans un tissu. La démarche traditionnelle consiste à détecter des QTL sur ces données d’expression de gènes (détection de eQTL) en mettant en oeuvre, gène par gène, des méthodes de cartographie d’intervalle. Hors, il apparaît qu’il existe un biais sur la position estimée des QTL, biais aboutissant sur ces données de grande dimension à un nombre anormalement élevé de eQTL détectés sur les positions des marqueurs. La première partie de ce travail vise à caractériser ce biais afin de proposer des itinéraires pour mieux le maîtriser. Les paramètres affectant le biais sont étudiés, puis un algorithme pour améliorer l’estimation de la position du QTL est proposé. Dans une seconde partie, le test de la co localisation entre eQTL et QTL est abordé. L’objectif est de réduire la liste des eQTL déclarés « colocalisant » avec un QTL afin de permettre le passage à une étude individuelle de ces gènes. Dans ce contexte, les conditions favorables pour assurer l’efficacité des méthodes de régression existant dans la littérature sont recherchées. Des méthodes permettant de lever ces éventuelles conditions sont ensuite proposées. Enfin, en perspectives de ce travail, nous proposons des pistes de recherche pour l’utilisation des modèles d’équations structurelles (Structural Equation Modeling) pour finaliser la construction d’un réseau unissant QTL, eQTL et caractères
Identifying the causal polymorphism of a QTL remains a long and difficult step in most species of domestic animals. Under this framework, this work focuses on the integration of high throughput information on the expression of genes in a tissue. The traditional approach consists in detecting QTL on gene expression data (eQTL detection) by carrying out, gene by gene, the interval mapping methods. However, it appears that there is a bias on the estimated position of QTL. That leads, based on these high-dimensional data, to a high number of eQTL abnormally detected at the positions of the markers. The first part of this work is dedicated to the characterization of this bais in order to propose some ways to better control it. The parameters affecting the bias are discussed and an algorithm to improve the accuracy of the estimated position of the QTL is proposed. In the second part, the test of the co localization between eQTL and QTL is discussed. The aim is to reduce the list of eQTL declared "co localizing" with a QTL so that one could pass an individual study for these genes. In this framework, the conditions to guarantee the efficacy for the regression methods existing in the literature are sought. Then, some methods allowing to improve these conditions are proposed. Finally, perspectives of this work, we propose some tracks by the use of structural equation models to construct a network linking QTL, eQTL and traits
22

Coulibaly, Lacina. "Intégration de données multisources de télédétection et de données morphométriques pour la cartographie des formations meubles région de Cochabamba en Bolivie." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2717.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this study, we develop a new method for mapping surficial deposits based on the modeling of the synergistic relationship between objects on the surface identifiable from remote sensing data, morphometric information derived from a DEM and geoscience ancillary data. The performance of SPOT-4 HRVIR, Landsat-7 ETM+, and RADARSAT-1 S4 and S5 mode SAR satellite data are compared in order to identify and map the surface indicators of surficial deposits. Furthermore, morphometric data such as altitude, slope, slope orientation, slope curvature and the potential moisture index extracted from the DEM are used to define the ground topographical characteristics. Supervised classifications were carried out from single source images and multisource image combinations using image fusion techniques including RVB, ACP and HIS. Different spectral indices including NDVI, TSAVI, RI and IF, as well as texture indices (average, standard deviation, entropy, contrast) are also compared. The different layers of information obtained are regrouped into categories of variables in relation to the vegetation cover, soils, the textural organization of the landscape and the topography. Results show that the supervised classification using the maximum likelihood method based on the RVB fusion of HRVIR and SAR S4 data provides the best classification rate of the land cover estimated at 96%. The morphometric data derived from the DEM are integrated with the results of the spectral indices, the texture indices and the land cover map in a linear equation within a discriminant analysis. Based on this equation, we were able to model the synergy between the surficial deposits indicators which allowed their identification and mapping. Based solely on the binary units derived from the land cover variables, the model is capable of identifying and classifying surficial deposits in the study area with a global accuracy of 70%. The addition of spectral indices relating to vegetation and soil to the preceding information increases the global classification precision to 79%. This improvement in the results confirms the importance of the two categories of spectral indices in providing information on the density of the vegetation cover, the state of growth of the vegetation and the soil spectral characteristics. The addition of texture indices added to the previous information increases the classification accuracy to 81%. Finally, the addition of topographical information to the parameters of the previous step provides a further improvement in the global classification rate from 81% to 88%, a further increase of 7%. Validation of the final results of the model applied to the entire study area, in comparison with ground truth data and geological maps, gives a global classification rate of 88%"--Résumé abrégé par UMI.
23

Mallet, Clément. "Utilisation de données lidar aéroportées à retour d'onde complète pour la cartographie des milieux urbains." Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00566992.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec l'émergence récente des systèmes lidar aéroportés à retour d'onde complète, capables de fournir plus qu'une représentation topographique en trois dimensions, se pose la question, entre autres, de son utilité pour l'analyse du milieu urbain. Nous souhaitons en particulier comparer ses performances aux systèmes lidar multi-échos traditionnels. Les signaux lidar fournis sont en effet porteurs d'informations supplémentaires sur les objets atteints. L'objectif final visé dans cette thèse est une cartographie automatique 3D améliorée des zones d'occupation du sol, comme socle de grands nombres d'applications déjà existantes, en partant des données brutes enregistrées. L'approche proposée se compose de deux grandes phases. La première étape consiste à traiter les signaux enregistrés pour générer des nuages de points 3D de qualité maîtrisée, ainsi que pour extraire des informations sur la morphologie de ces derniers. Deux méthodes distinctes sont présentées. L'une cherche à améliorer la méthode standard consistant à supposer que tous les échos suivent un modèle gaussien. La deuxième permet d'explorer l'hypothèse d'un mélange de modèles, donc de caractériser chaque écho séparément, tout en proposant une formulation physique simple et flexible du problème. \\ Dans un second temps, les nuages 3D ainsi générés sont classés en se servant d'attributs spatiaux mais également des attributs morphologiques extraits lors de l'étape précédente. Une approche supervisée utilisant les Séparateurs à Vaste Marge est adoptée pour séparer les zones de sol, de bâtiments, et de végétation. Elle est couplée à un processus de sélection des attributs les plus pertinents. En plus de l'obtention d'une classification de bonne qualité, cette étape met en évidence l'apport des données à retour d'onde complète dans un cadre de cartographie automatique des paysages urbains
The recent development of airborne full-waveform lidar systems, that are able to provide more than a simple 3D representation of the topographic surfaces, has arisen many questions with respect to the analysis of urban areas, and in relation with traditional multiple pulse sensors. Indeed, the recorded lidar waveforms provide additional information about the geometry and the radiometry of the targets. The final aim of this thesis is to process the raw data in order to achieve a 3D automatic land-cover classification, as a basis for various subsequent applications. The proposed workflow is composed of two main stages. The first step consists in processing the waveform in order to generate an improved 3D point cloud, and retrieve morphological information about these points. Two distinct methods have been proposed. The first one aims to improve the standard approach, which assumes that all echoes can be modelled by the Gaussian curve. The second method hypothesizes a mixture of several models -- each echo is then characterized separately -- and allows to propose a simple physical and flexible solution. Afterwards, the generated 3D points are classified using both spatial features and the morphological ones retrieved from the previous processing step. A supervised approach using Support Vector Machines is adopted in order to label ground, building, and vegetation areas. Furthermore, the classifier is coupled with a feature selection step. Eventually, results with high accuracy are achieved, and enhance the relevance of full-waveform data for automatically mapping urban areas
24

Blond, Nadège Martine. "Assimiliation de données photochimiques et prévision de la pollution troposphérique." Palaiseau, Ecole polytechnique, 2002. http://www.theses.fr/2002EPXX0043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Mallet, Clément. "Analyse des données lidar aéroportées à Retour d'Onde Complète pour la cartographie des milieux urbains." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00566992.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec l'émergence récente des systèmes lidar aéroportés à retour d'onde complète, capables de fournir plus qu'une représentation topographique en trois dimensions, se pose la question, entre autres, de son utilité pour l'analyse du milieu urbain. Nous souhaitons en particulier comparer ses performances aux systèmes lidar multi-échos traditionnels. Les signaux lidar fournis sont en effet porteurs d'informations supplémentaires sur les objets atteints. L'objectif final visé dans cette thèse est une cartographie automatique 3D améliorée des zones d'occupation du sol, comme socle de grands nombres d'applications déjà existantes, en partant des données brutes enregistrées. L'approche proposée se compose de deux grandes phases. La première étape consiste à traiter les signaux enregistrés pour générer des nuages de points 3D de qualité maîtrisée, ainsi que pour extraire des informations sur la morphologie de ces derniers. Deux méthodes distinctes sont présentées. L'une cherche à améliorer la méthode standard consistant à supposer que tous les échos suivent un modèle gaussien. La deuxième permet d'explorer l'hypothèse d'un mélange de modèles, donc de caractériser chaque écho séparément, tout en proposant une formulation physique simple et flexible du problème.\\ Dans un second temps, les nuages 3D ainsi générés sont classés en se servant d'attributs spatiaux mais également des attributs morphologiques extraits lors de l'étape précédente. Une approche supervisée utilisant les Séparateurs à Vaste Marge est adoptée pour séparer les zones de sol, de bâtiments, et de végétation. Elle est couplée à un processus de sélection des attributs les plus pertinents. En plus de l'obtention d'une classification de bonne qualité, cette étape met en évidence l'apport des données à retour d'onde complète dans un cadre de cartographie automatique des paysages urbains.
26

Tadonki, Georges R. "Cartographie numérique des données urbaines en Afrique tropicale : pour une méthode : le cas de Douala." Aix-Marseille 1, 1995. http://www.theses.fr/1995AIX10015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En afrique tropicale, l'imprecision des statistiques nationales est un mal chromique. Cela est d'autant plus grave que nous sommes aujourd'hui dans l'etre de l'information. Plusieurs analystes pensent aujourd'hui que la mauvaise qualite des informations penalise certains pays du tiers-monde, car les investisseurs ont besoin de plus en plus d'informations fiables pour engager leurs ressources. Au cameroun, et a douala, capitale economique, nous avons remarque que les donnees existantes etaient mal rattachees a l'espace. Les zones de collecte de donnees ne sont pas bien definies, ce qui empeche toute comparaison fiable dans l'espace et le temps. L'instrumentation geographique moderne et sa demarche peuvent contribuer a y remedier. Partant du postulat que la ville est constituee d'ilots, nous proposons de l'utiliser comme base de reference pour la collecte et l'utilisation de l'information urbaine. Le modele site (systeme d'information a reference topologique d'encodage des donnees urbaines) offre le cadre theorique a l'information urbaine a douala et permet de reperer tous les "objets" de l'espace urbain. Le modele site definit avec precision l'ilot urbain et fait usage pour cela de l'occupation du sol. Dlai3240 (equivaut a : ville de douala, llot aux coordonnees de centre x=32, y=40 unites de mesure). L'utilisation du centroide interdit toute redondance d'encodage sur une meme
It is well know that national statistics in tropical arica are often very poor. This is a serious problem in a century of information. Several analysts believe that this situation has an important impact on the investment for development in devopping countries. The investors are reluctant to invest in countries with a low quality statistical information. In cameroun and particulary in the economic capital, douala, we realised that existing urban data are not well georeferrenced. Therefore it is practically impossible to make use of it for spatial analyses. The enumeration zones are not well defined. Modern geography and gis (geographical information systems) can help improving that situation. As the town is made of blocks, we propose a model for geocoding urban data at douala : site (topologically referrenced information system for encoding urban data). It allows the referrencing of any "urban object" using simply a code constituted of the identifier of the area, the object, and it's location. In site, the block is well defined, using the information from land use mapping. Exemple : dlai3240 (town of douala, i for block, x=32, y=40 units). The use of the coordinates of the centroid of the object prevents any duplication of code. Every object has a unique code
27

Lamouret, Marie. "Traitement automatisés des données acoustiques issues de sondeurs multifaisceaux pour la cartographie des fonds marins." Electronic Thesis or Diss., Toulon, 2022. http://www.theses.fr/2022TOUL0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sondeur multifaisceaux (SMF) est l'une des technologies d'acoustique sous-marine les plus avancées pour l'étude des fonds et de la colonne d'eau. Il requiert une réelle expertise pour son déploiement sur le terrain ainsi que pour l'élaboration de cartographies à partir des différentes données acquises. Ces traitements sont souvent chronophages en raison de la quantité de données acquises et demandent à être automatisés pour alléger le travail à l'hydrographe. C'est ce sur quoi portent les travaux réalisés durant cette thèse. Après des rappels sur des notions d'acoustique sous-marine, le fonctionnement du SMF est décrit et les types de données manipulées tout au long des traitements sont présentés. Le manuscrit s'articule ensuite autour de deux thématiques ˸ la cartographie bathymétrique et la cartographie biocénotique. Les développements sont intégrés dans les logiciels de l'entreprise Seaviews pour laquelle les travaux sont réalisés. Ils répondent à des besoins particuliers de l'entreprise.En ce qui concerne la cartographie bathymétrique, la donnée bathymétrique doit être préalablement triée pour écarter les sondes aberrantes et éviter qu'elles ne pénalisent la précision topographique. Ce tri d'innombrables sondes est une tâche que réalisent les hydrographes, assistés aujourd'hui d'outils numériques. Nous proposerons une méthode statistique rapide pour trier les sondes tout en réalisant une carte de profondeurs marines. Ce qui amène à se demander si les images de la colonne d'eau acquises également par le sondeur ne seraient pas exploitables pour déduire une bathymétrie exempte d'aberration. Nous testerons cette hypothèse à l'aide de l'apprentissage profond (deep learning) et en particulier par des réseaux de neurones convolutifs qui ont permis des progrès considérables en vision par ordinateur. La cartographie des habitats marins (les biocénoses) est un travail de classification de la nature des fonds à partir des données acoustiques du SMF en concordance avec les espèces vivant sur les lieux. La société Seaviews a développé une méthode de préparation des données SMF pour l'analyse des habitats. Nous nous orientons vers des méthodes de classification des habitats, à partir de ces données, par des techniques d'apprentissage automatique (machine learning). Plusieurs méthodes sont mises en place et testées, puis une zone d'étude est choisie pour évaluer et comparer les résultats des différentes approches
Among underwater acoustic technologies, multibeam echo sounder (MBES) is one of the most advanced tool to study and map the underwater floors and the above water column. Its deployment on-site requires expertise so as the whole data processing to map the information. These processing are very time-consuming due to the massive quantity of recorded data and thus needs to be automatised to shorten and alleviate the hydrographer's task. This PhD research works focus on the automatisation of the current activities in Seaviews society.After some reminders on the underwater acoustic sciences, the MBES operating is described as well the produced data that will be manipulated throughout the developments. This document presents two thematics˸ bathymetric (depths) and marine habitats mapping. The developments are integrated into the Seaviews' software in the aim to be used by all the employees.About seafloor depths mapping, the bathymetric sounding has to be sorted to avoid that the outlier errors distort the results. Sorting the uncountable measures is cumbersome but necessary, although the hydrographers are today happily computed-assisted. We propose a fast statistical method to exclude the outliers while mapping the information. This leads to wonder if the water column imagery would be workable to deduce the bathymetry without failure. We will test this hypothesis with some technics of deep learning, especially with convolutional neural networks.The marine habitats mapping is a seabed nature classification according to the local life. Seaviews has worked on a way to prepare MBES data and habitats analysis. Concerning the method of classification itself, we move towards machine learning technics. Several methods are implemented and assessed, and then an area is chosen to evaluate and compare the results
28

Ridene, Taha. "Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobiles." Phd thesis, Paris, ENMP, 2010. https://pastel.hal.science/pastel-00563782.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®. . . ). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données
The development of 3D mapping databases is a matter of increasing interest. Databases have recently been developed at different scales (national, European, international) and to meet different needs. Such development has been made possible by the implementation of efficient 3D mapping technologies. 3D mapping strategies are based on multi-sensor data fusion usually performed after a preprocessing step that includes registration and filtering. In this thesis, we present new registration methods applied to solve problems in 3D urban environment representations issued from a Mobile Mapping System. We improve the stability of convergence, the computation time and handle heterogeneous data sets in various scenarios. We also propose a new method for qualitative evaluation of 3D registration related to the developed algorithms. Two variants of FQ-Evaluation were tested, based on the extraction and the comparison of geometric features
29

Ridene, Taha. "Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobiles." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00563782.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®...). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données.
30

Dhib, Ameni. "La cartographie des sonorités environnementales d'un territoire." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34749.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Sur un territoire, des sources sonores émettent des sons qui peuvent être d’origines anthropophoniques (i.e. le bruit des véhicules), biophoniques (i.e. les sons émis par les oiseaux), ainsi que géophoniques (i.e. le bruit du vent). Ceci permet de décrire un paysage sonore des lieux tout en alimentant des besoins particuliers propres à la cartographie de l’environnement sonore tels que les propriétés acoustiques des territoires, nécessaires à la compréhension de l’environne me nt sonore. Au-delà des travaux de recherches qui étudient et analysent les propriétés acoustiques de l’environnement, l’état de l’existant se concentre sur deux types de cartes sonores : les cartes d’inventaire de sons et les cartes de bruit. Deux approches méthodologiques sont à l’origine de la production de ces cartes. La première est basée sur des enregistrements sonores mesurés et géoréférencées sur le territoire à l’aide de sonomètres, ou d’applications installées sur des tablettes/téléphones intelligents. La deuxième sert à modéliser la propagation de l’onde acoustique en lien avec les objets présents sur le territoire (i.e. bâtiments, arbres, etc.). Bien que cette deuxième approche considère les différents facteurs environnementaux qui peuvent affaiblir l’onde acoustique comme l’absorption atmosphérique (causée par le vent, la température, etc.), la divergence géométrique et la nature de la couverture des sols, on constate qu’elle est peu documentée dans la littérature scientifique, lorsqu’aucun capteur sonore n’est utilisé pour produire des cartes sonores. L’objectif principal est de définir une méthode générique de modélisation de la propagation acoustique du son pour territoire à l’aide de données géospatiales multi-sources, dont des images à très haute résolution. Ainsi à l’aide des outils géomatiques, il est possible de représenter l’interaction qui existe entre l’onde sonore et les objets environnementaux composant ce territoire. Il est alors possible à partir d’une source sonore et des points récepteurs du son de réaliser des cartes dites spatio-phoniques. Mots clés : environnement sonore, modélisation, géomatique, propagation, données géospatiales, cartographie
On a territory, sound sources emit sounds that can be of anthropophonic origins (i.e. vehicle noise), biophonic origins (i.e. sounds emitted by birds), as well as geophonic origins (i.e. wind noise). This makes it possible to describe a soundscape of the places while feeding particular needs specific to the mapping of the sound environment such as the acoustic properties of the territories, necessary to the understanding of the sound environment. Beyond the research work that studies and analyzes the acoustic properties of the environment, the state of the existing focuses on two types of sound cards: sound inventory cards and noise maps. Two methodological approaches are behind the production of these cards. The first is based on sound recordings measured and georeferenced on the territory using sound level meters, or applications installed on tablets/smartphones. The second is used to model the propagation of the acoustic wave in relation to the objects present on the territory (i.e. buildings, trees, etc.). Although this second approach considers the different environmental factors that can weaken the acoustic wave like atmospheric absorption (caused by wind, temperature, etc.), the geometric divergence and the nature of the cover of soil, it is found that it is poorly documented in the scientific literature, when no sound sensor is used to produce sound cards. The main objective is to define a generic method for modeling the acoustic propagation of a territory using multi-source geospatial data including very high resolution images. Thus, using geomatic tools, it is possible to represent the interaction that exists between the sound wave and the environmenta l objects that make up this territory. It is then possible from a sound source and sound receiving points to make so-called spatio-phonic cards
31

Cyr, Isabel. "Exploitation des données RSO de RADARSAT pour la cartographie de la vulnérabilité de la nappe souterraine." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ38058.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Gérossier, Franck. "Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquence." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864181.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le SLAM, " Simultaneous Localisation And Mapping ", représente à l'heure actuelle l'une des principales thématiques investiguées dans le domaine des robots mobiles autonomes. Il permet, à l'aide de capteurs extéroceptifs (laser, caméra, radar, etc.) et proprioceptifs (odomètre, gyromètre, etc.), de trouver l'orientation et la localisation d'un robot dans un environnement extérieur vaste, inconnu ou modifié, avec la possibilité de créer une carte au fur et à mesure des déplacements du véhicule. Les travaux de thèse décrits dans ce manuscrit s'intègrent dans ce courant de recherche. Ils visent à développer un SLAM innovant qui utilise un radar à modulation de fréquence continue " FMCW " comme capteur extéroceptif. Ce capteur est insensible aux conditions climatiques et possède une portée de détection importante. Néanmoins, c'est un capteur tournant qui, dans une utilisation mobile, va fournir des données corrompues par le déplacement du véhicule. Pour mener à bien ces travaux, nous avons proposés différentes contributions : une correction de la distorsion par l'utilisation de capteurs proprioceptifs ; le développement d'une technique de localisation et cartographie simultanées nommée RS-SLAM-FMT qui effectue un scan matching sur les observations et utilise un algorithme estimatif de type EKF-SLAM ; l'utilisation, pour la première fois en SLAM, de la mise en correspondance par Transformée de Fourier-Mellin pour réaliser l'opération de scan matching ; la création d'un outil expérimental pour déterminer la matrice de covariance associée aux observations ; des tests de robustesse de l'algorithme dans des conditions d'utilisation réelles : dans des zones avec un faible nombre de points d'intérêts, sur des parcours effectués à vitesse élevée, dans des environnements péri-urbains avec une forte densité d'objets mobiles ; la réalisation d'une application temps réel pour le test du procédé sur un véhicule d'exploration qui se déplace dans un environnement extérieur vaste.
33

Davtian, Gourguèn. "Analyse des données et cartographie automatique : application aux principales variables climatiques du versant méditerranéen du Maghreb." Nice, 1998. http://www.theses.fr/1998NICE2004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude, composante du projet LAGUNIS du programme AVICENNE, porte essentiellement sur la spatialisation des paramètres climatiques permettant d'évaluer les flux polluants vers la Méditerranée et de déterminer les potentialités d'assainissement par lagunage. L'étude des pluies journalières aboutit à une modélisation globale sous forme d'un générateur stochastique d'averse. Il permet l'estimation des débits et respecte les durées des séquences sèches et pluvieuses pour le calcul de la charge polluante mobilisable. On a pu régionaliser les paramètres de ce générateur (pluie journalière) à partir de la pluie moyenne interannuelle. Pour modéliser les pluies aux échelles mensuelle et annuelle, on a effectué une régression multiple avec différents paramètres du relief et la position des stations. Les résidus du modèle n'étant connus que sur les stations, on a réalisé une étude géostatistique pour les interpoler par krigeage sur tout le domaine. Toutes les informations nécessaires au modèle étant spatialisées, on a établi des cartes des précipitations moyennes mensuelles et une carte des précipitations moyennes interannuelles, ainsi que leurs évolutions fréquentielles. Le rendement du lagunage, et donc le dimensionnement des lagunes, dépendent de la charge mais aussi des températures et des évapotranspirations. Pour la température, on a utilisé la même démarche que pour les pluies. Pour évaluer l'ETP, on montre qu'il est possible d'obtenir des estimations fiables de l'ETP Penman à partir des seules températures, sous réserve de prendre en compte également la saison et la position géographique. Les enseignements de cette recherche sont : valorisation et analyse statistique des données climatiques, génération stochastique des pluies journalières, modélisation "pluie-relief" et "température-relief", estimation régionale simplifiée de l'ETP Penman, construction d'un MNA et élaboration de cartes des pluies, des températures et des ETP aux échelles mensuelle et annuelle
This work, part of the LAGUNIS project of the AVICENNE program, concerns essentially the spatialization of the climatic parameters allowing to evaluate the flows that pollute the Mediterranean sea, and to determinate the potentialities of purification through lagooning. The study of the daily rainfalls gives a global modelisation in form of stochastic generator of rainfalls. It allows the estimation of the flows and respects the periods of dry and rainy sequences to evaluate the potential pollution load. We were able to regionalize the parameters of this generator (daily rainfall) from the yearly mean rainfall. To modelize the rainfalls at monthly and yearly range, we made a multiple regression with some parameters of the relief and the positions of the stations. As the residues of the model were known only in the stations, we carried out a geostatistical study to interpolate them by kriging over the entire field. When all the data needed by the model were spatialized, we drew maps of the monthly mean rainfalls and a map of the yearly mean rainfalls and we gave the principles of their frequencial evolutions. The efficiency of the lagooning and then the dimensioning of the lagoons depend on the pollution load but also on the temperatures and on the evapo-tranpirations. For the temperature, we used the same process than for the rainfalls. To evaluate the etp, we showed that we can obtain reliable estimations of penmann's etp from the only temperatures, on condition we also take into consideration the season and the geographical position. The teachings of this research are: valorisation and statistical analysis of climatic data, stochastic generation of daily rainfalls, "rainfall-relief" and "temperature-relief" modelling, simplified regional estimation of Penmann's ETP, building of a dem and elaboration of charts of rainfalls, temperatures and ETP at monthly and yearly ranges
34

Yang, Feifei. "Techniques de comptage et cartographie passives de clients WiFi dans l’ère de la protection des données." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS264.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'avènement de la législation sur la protection des données (GDPR) a présenté d'importants défis pour les opérateurs de réseaux WiFi, entravant leur capacité à suivre et analyser l'activité des clients à des fins commerciales et de sécurité. La randomisation des adresses MAC des appareils clients lors de chaque transmission a rendu difficile l'agrégation de l'activité des clients en utilisant des trames de gestion telles que les probe requests, pratiques courantes par le passé. Par conséquent, le comptage et la cartographie précis de l'activité des clients sont devenus problématiques, nécessitant souvent des mesures supplémentaires à partir de capteurs alternatifs tels que des caméras. Cependant, nos recherches ont donné des résultats prometteurs pour relever ces défis. Nous avons d’abord constaté que statistiquement le nombre de clients maintient une relation proportionnelle avec le nombre brut de probe requests, offrant ainsi un soulagement à la problématique du comptage des clients, sans recourir à des capteurs de référence. Au-delà de cette avancée, la localisation des clients aux adresses MAC randomisées au sein d'un site réseau reste un problème non résolu. Pour adresser ce constat, cette thèse propose également une boîte à outils dont l'objectif est d'étendre la proportionnalité entre le nombre de clients et le nombre de probe requests à une cartographie de la densité des clients dans les réseaux WiFi extérieurs du monde réel. En utilisant cette boîte à outils, les probe requests brutes peuvent être transformées en une carte de densité, fournissant des estimations de la population de clients à chaque emplacement. En combinant la boîte à outils proposée avec les conclusions de la recherche sur le comptage des clients, cette thèse offre une solution intéressante aux défis auxquels sont confrontés les opérateurs de réseaux WiFi. La boîte à outils permet une cartographie des densités de clients dans les réseaux WiFi extérieurs, en tenant compte des réglementations sur la protection des données et de la randomisation des adresses MAC. Cela permet une meilleure compréhension du comportement des clients tout en respectant les préoccupations de confidentialité et en surmontant les complexités techniques
The emergence of data privacy legislation, such as the GDPR, has posed significant hurdles for WiFi network operators, impeding their ability to track and analyze client activity for commercial and security purposes. The dynamic randomization of client device MAC addresses during each transmission has created obstacles in aggregating client data using management frames like probe requests, which were commonly employed in the past. Consequently, accurately quantifying and mapping client activity has become a complex task, often necessitating supplementary measurements from alternative sensors such as cameras. Our research yielded encouraging results in addressing these challenges. First of all, we have demonstrated statistically that a proportional relationship exists between the number of clients and the raw count of probe requests, thus alleviating the problem of client counting, without relying on ground truth measurements. Despite this advancement, however, the localization of clients with randomized MAC addresses within a network site remains an unresolved problem. To confront this issue, the thesis proposes a toolkit whose objective is to extend the proportionality between client counts and probe requests to the mapping of client densities in real-world outdoor WiFi networks. With this toolkit, raw probe requests can be transformed into a density map showing client populations. By combining the proposed toolkit with the findings derived from the research on client counting, this thesis presents an interesting solution to the challenges confronted by today’s WiFi network operators. The toolkit facilitates accurate mapping of client densities in outdoor WiFi networks while adhering to data privacy regulations and accounting for MAC address randomization. This approach enhances the comprehension of client behavior, while ensuring the preservation of privacy and addressing technical challenges
35

Ruskoné, Renaud. "Extraction automatique du réseau routier par interprétation locale du contexte : application à la production de données cartographiques." Marne-la-Vallée, 1996. http://www.theses.fr/1996MARN0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Le, Gléau Annick. "Système d'aide à la conception et à la maintenance de bases de données cartographiques." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les données géographiques portant sur l'occupation du sol sont éminemment changeantes. Très rapidement les problèmes de mise à jour dépassent en ampleur ceux de l'accumulation primitive des données. Création d'un système dont les caractéristiques fondamentales sont : facilité de manipulation, portabilité, structure légère à base de microordinateur, modularité, adaptabilité à toutes les villes, possibilité d'évolution, et dont les fonctions principales sont : saisie ou digitalisation des données, restitution graphique, mise à jour interactive.
37

Stroobants, William. "Apport des données R. S. O. à la production cartographique en contexte tropical : exemple du Sénégal." Université de Marne-la-Vallée, 1999. http://www.theses.fr/1999MARN0044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les continents africain, sud-americain et asiatique presentent un deficit important en cartes a moyennes et grandes echelles (1/200 000 et 1/50 000). De plus, l'apparition de l'image numerique, et en particulier des images acquises par les satellites radar, a donne naissance a un nouveau type de produit cartographique, la spatiocarte radar. Ce produit semble le moyen le plus adapte pour combler le deficit en cartographie traditionnelle (cartes au trait) des regions tropicales. En outre, les capteurs radar qui equipent les satellites ers 1/2, jers et le tout recent radarsat presentent des aptitudes propres qui leurs conferent certains avantages sur l'observation optique. La premiere partie de ce travail caracterise le besoin cartographique en milieu tropical et se divise en deux temps. Tout d'abord, il est montre comment une carte topographique classique se decline en une serie de fonctions cartographiques satisfaisant des contraintes qualites liees a la geometrie, la semantique, l'actualite et l'ergonomie de la carte. Ensuite, l'etude sur la nature des utilisateurs de produits cartographiques en milieu tropical ainsi que la definition de leurs besoins permet de definir une gamme de produits permettant de satisfaire le plus grand nombre. Dans la seconde partie de cette these, l'etude porte sur les differentes etapes d'une filiere de production cartographique a base d'images r. S. O. En amplitude. Dans ce cadre, il est montre comment le choix des donnees sources et l'organisation des traitements permettent d'integrer les contraintes liees aux donnees r. S. O. , aux techniques mise en uvre et au contexte d'application, en vue de la satisfaction optimale du besoin. Dans la troisieme partie, de nouveaux traitements sont mis en uvre pour ameliorer la qualite des images r. S. O. A des fins d'utilisations cartographiques : le filtrage multidates et la reduction de la dynamique (transformation 16 bits / 8 bits) des images r. S. O. La derniere partie vise a cartographier l'occupation du sol sur une zone cotiere situee au senegal a l'aide des capteurs ers-1, jers, radarsat et landsat tm. Cela permet par la suite de mettre en avant l'apport respectif de chaque satellite pour la cartographie du senegal et de construire une methodologie d'exploitation operationnelle des donnees radar a des fins cartographiques en milieu tropical
38

Karkar, Slim Ismael. "Parcellisation et analyse multi-niveaux de données : Application à l’étude des réseaux de connectivité cérébrale." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/KARKAR_Slim_Ismael_2011.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant les dernières décennies, l'IRM fonctionnelle a permis de cartographier les différentes fonctions cérébrales et, plus récemment, d'identifier les réseaux fonctionnels qui décrivent les interactions qui peuvent s'établir entre régions cérébrales, proches ou distantes, lors de l'exécution d'une tâche cognitive. Pour identifier ces réseaux, une stratégie récente repose sur une parcellisation préliminaire du cerveau en régions fonctionnellement homogènes, puis sur l'identification des réseaux fonctionnels significatifs depuis une mesure des interactions entre l'ensemble des régions. Ainsi, la première partie de cette thèse propose une nouvelle méthode de parcellisation du cerveau en régions fonctionnellement homogènes. La méthode proposée est exploratoire et multi-niveaux : elle fournit plusieurs niveaux de parcellisation, et nous avons montré que les régions définies par notre méthode se superposent de manière satisfaisante aux structures anatomiques du cortex. Dans la deuxième partie de la thèse, nous avons proposé une méthode originale d'identification des réseaux fonctionnels. L'approche développée permet la significativité des réseaux étant donné leur taille et le seuil utilisé pour leur détection. Une telle approche permet de détecter des réseaux de faible taille qui impliquent des liens très significatifs, et également des réseaux plus grands impliquant des liens moins significatifs. Enfin, nous avons développé une approche permettant de classer les réseaux obtenus, de manière à réaliser une étude de groupe. L'information disponible sur l'ensemble des sujets permet alors de définir des classes qui synthétisent les caractéristiques des réseaux les plus partagés au sein d'une population de sujets
Over the last decade, functional MRI has emerged as a widely used tool for mapping functions of the brain. More recently, it has been used for identifying networks of cerebral connectivity that represent the interactions between different brain areas. In this context, a recent strategy is based on a preliminary parcellation of the brain into functional regions, and then identifying functional networks from a measurement of interactions between each area. The first part of this thesis describes a novel approach for parcellation that produces regions that are homogeneous at several levels. These regions are shown to be consistent with the anatomical landmarks of the processed subjects. In the second part, we propose a new family of statistics to identify significant networks of functional connectivity. This approach enables the detection of small, strongly-connected networks as well as larger networks that involve weaker interactions. Finally, within a classification framework, we developed a group-level study, producing networks that synthesize characteristics of functional networks across the population under study
39

El, Chaoui El Ghor Hakim. "Modélisation planaire pour un RGB-D SLAM : localisation éparse et cartographie réduite." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite du problème de la Localisation et Cartographie Simultanées (SLAM) dans les environnements d’intérieur. Dans ce contexte, nous avons choisi un SLAM visuel en utilisant les données d’un capteur RGB-D de type Kinect pour estimer la trajectoire de la caméra et construire une carte 3D de l’environnement en temps réel. Malgré les avantages des caméras RGB-D (faible coût, images couleurs et cartes de profondeur), les données de profondeur issues de ce genre de capteur peuvent être de mauvaise qualité ce qui affecte l’estimation de la pose. En outre, la taille des nuages de points engendre une carte globale lourde et contenant de nombreux points 3D redondants. Afin de diminuer l’impact de ces faiblesses sur la résolution du SLAM, nous proposons d’utiliser des plans 3D, majoritaires dans les scènes d’intérieur, dans le processus d’estimation de poses de la caméra pour construire des cartes 3D basées-plans.Les plans 3D servent alors à générer des points d’intérêt 3D planaires moins bruités que les points bruts déduits directement des nuages de points. En rectifiant les valeurs de profondeur des points d’intérêt 3D bruts appartenant à ces plans, nous améliorons ainsi l’estimation de pose quand la scène est composée essentiellement de plans. Par la suite, les plans 3D détectés sont utilisés pour construire une carte 3D globale légère. La carte est élaborée en fusionnant itérativement les régions planaires détectées dans la scène avec celles déjà présentes dans la carte ou en ajoutant de nouveaux plans. Contrairement à la représentation classique basée point,nous réduisons ainsi la taille de la carte 3D et construisons des cartes compactes. Ces cartes sont exploitables par des applications de robotique mobile et de navigation. Pour montrer les bénéfices des travaux proposés dans cette thèse, les expérimentations réalisées évaluent la précision de la localisation, l’influence de l’échantillonnage des données RGB-D sur la détection des plans ainsi que la qualité de la carte basée-plans 3D par rapport à la scène réelle. La carte ainsi constituée de plans présente une première étape vers une carte plus sémantique
This thesis deals with the Simultaneous Localisation and Mapping (SLAM) problem in indoor environments. In this context, we chose a visual SLAM using an RGB-D sensor (Kinect) to estimate the camera trajectory and to build a 3D map of the environment in realtime. Despite RGB-D cameras advantages (low cost, color images and depth maps), depth data resulting from this kind of sensors may be noisy, which affects pose estimation. In addition,due to points clouds sizes, the resulting global map is heavyweight and contains many redundant 3D points. In order to reduce the impact of these weaknesses on resolving the SLAM problem, we propose to use 3D planes, which are dominant in indoor scenes, for both camera poses estimations and 3D based-planes maps building process. Hence, 3D planes are used to generate 3D planar feature featuring less depth noise than the raw points extracted directly from points clouds. By regularizing depth values of raw 3D feature points belonging to these planes, we improve pose estimation when the scene is mainly composed of planes. Then, the detected 3D planes are used to build the global 3D map, creating a light representation of the environment based on these planes. The map is iteratively built from each new camera pose either by merging new planes to the existing ones or by adding new planes to the map. Thus,unlike conventional point-based representation, the size of the resulting 3D map is considerably reduced and the built map is more compact compared to point-based maps.These maps maybe used by mobile robotics and navigation applications. To show the benefits of our works, the conducted experiments to evaluate localisation accuracy, the influence of subsampled RGB-Ddata on plane detection, as well as quality of 3D plane-based maps against real scenes. Such plane-based maps represents a first step towards semantic maps
40

Beaulant, Anne-Lise. "CARTOGRAPHIE DE LA POLLUTION PARTICULAIRE EN VILLE." Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://pastel.archives-ouvertes.fr/pastel-00949078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Haut Comité de Santé Publique donne des recommandations sur les moyens d'améliorer la connaissance des phénomènes liés à la pollution atmosphérique dans le but d'aider à l'évaluation de l'exposition des citadins. Les travaux de cette thèse s'inscrivent dans ce contexte global en s'orientant vers la cartographie de la concentration en particules en ville. Plusieurs outils existent aujourd'hui qui permettent de dériver des informations sur la qualité de l'air. Ce sont des cartes obtenues par des méthodes d'interpolation spatiale des mesures ponctuelles ou des modèles numériques. Ces deux approches ont des limitations. L'objectif de cette thèse est de contribuer à l'établissement d'une stratégie de cartographie de la pollution atmosphérique sur l'ensemble d'une agglomération à l'échelle de la rue (100 m) en s'appuyant notamment sur l'imagerie satellitaire. La stratégie de cartographie comprend deux méthodes. La méthode des champs typiques vise à améliorer la représentation de la pollution en appliquant des méthodes de fusion de données à des cartes de pollution déjà existantes. Les méthodes de fusion de données sont appliquées à la cartographie de la qualité de l'air. Une formalisation de la méthode des champs typiques est donnée et un essai sur un cas pratique est réalisé. La méthode de densification du réseau de mesure vise à créer des cartes de pollution en interpolant les valeurs de concentration mesurées par les stations. Des stations virtuelles s'ajoutent au stations réelles du réseau de mesure pour le rendre plus dense et améliorer ainsi l'interpolation. Ces stations virtuelles sont déterminées à partir d'une classification sur des éléments décrivant l'environnement des stations. Pour la ville de Strasbourg, 635 stations virtuelles sont ajoutées aux cinq stations réelles existantes. La cartographie par interpolation avec ces stations est améliorée qualitativement et quantitativement (jusqu'à 70 %). Pour valider la définition des stations virtuelles, l'imagerie satellitaire est utilisée. Les longueurs d'ondes autour de 815 nm sont les plus sensibles aux particules. La bande spectrale TM1 du capteur TM de Landsat5 est appropriée pour la détection des particules et est utilisée pour valider les stations virtuelles. 70 % des stations virtuelles ont été validées avec cette approche.
41

Gomez, Cécile. "Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00665112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies ' partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
42

gomez, cecile. "Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00008556.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies à partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
43

Lin, Arkadii. "Cartographie topographique générative : un outil puissant pour la visualisation, l'analyse et la modélisation de données chimiques volumineuses." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAF017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse concerne l'utilisation de Cartographie Topographique Générative (Generative Topographie Mapping - GTM) pour l'analyse, la visualisation et la modélisation de grands volumes de données chimiques. Les principaux sujets traités dans ces travaux sont le criblage virtuel multi-cibles dans la conception de médicaments et la visualisation, l'analyse et la comparaison de grandes chimiothèques. Plusieurs développements méthodologiques ont été proposés : (1) un algorithme de zoom hiérarchique automatisé pour la GTM afin d'aider à résoudre le problème de la résolution des cartes ; (i1) un protocole d'extraction automatisé des Sous-structures Maximum Communes (MCS) pour améliorer l'efficacité de l'analyse de données ; (iit) un criblage contraint basé sur la GTM permettant de détecter les molécules avec un profil pharmacologique souhaité, et (iv) une technique de GTM parallèle, qui réduit significativement le temps nécessaire pour construire une carte. Les méthodologies développées ont été implémentées sous forme de logiciel, utilisé à la fois dans des projets académiques (Université de Strasbourg, France) et industriels (Compagnie Boehringer lngelheim Pharma, Allemagne)
This thesis concerns the application of the Generative Topographic Mapping (GTM) approach to the analysis, visualization, and modeling of Big Data in chemistry. The main topics covered in this work are multi-target virtual screening in drug design and large chemical libraries visualization, analysis, and comparison. Several methodological developments were suggested: (i) an automatized hierarchical GTM zooming algorithm helping to resolve the map resolution problem; (ii) an automatized Maximum Common Substructure (MCS) extraction protocol improving efficiency of data analysis; (iii) constrained GTM-based screening allowing to detect molecules with a desired pharmacological profile, and (iv) a parallel GTM technique, which significantly increases the speed of GTM training. Developed methodologies were implemented in a software package used in both academic (University of Strasbourg, France) and industrial (Boehringer Ingelheim Pharma company, Germany) projects
44

Rioux, Jean-François. "Effet de la résolution spatiale des données de couverture terrestre sur la cartographie des services écologiques urbains." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33306.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La cartographie des services écologiques (SE) urbains suscite un intérêt grandissant. Toutefois, les différentes méthodes et sources de données utilisées peuvent produire des résultats divergents. En particulier, il demeure difficile d’estimer l’effet de la résolution spatiale des données de couverture terrestre (CT) sur la cartographie des flux de SE des espaces verts aux personnes qui en bénéficient. Cette étude visait à caractériser cet effet afin d’aider à en prédire l’ampleur pour des flux de SE produits à différentes échelles spatiales. Une carte de CT à haute résolution spatiale (1 m) couvrant le territoire de la ville de Laval (Canada) a été acquise, puis agrégée à des résolutions inférieures de 3, 5, 10 et 15 m. À partir de ces données, trois SE ont été cartographiés : le stockage de carbone (flux à l’échelle globale), la régulation de la température et la pollinisation (flux à l’échelle locale). Les résultats ont été analysés pour différents types d’utilisation du sol. De manière générale, la diminution de la résolution a entraîné une diminution de la proportion d’espaces verts dans la carte de CT, et par conséquent une diminution de la quantité de SE calculée. Pour les flux de SE à l’échelle locale, l’effet dépendait également des changements dans la configuration spatiale de l’apport potentiel par rapport à la demande en SE. L’ampleur de l’effet variait en fonction du type d’utilisation du sol, mais également entre les zones d’analyse du même type, alors qu’il était sensible à la structure du paysage. Ces résultats invitent à considérer l’effet de la résolution spatiale lors de la cartographie des SE urbains, en particulier pour les flux de SE à l’échelle locale. L’utilisation de données à haute résolution spatiale est recommandée pour cartographier adéquatement les SE rendus par les petits espaces verts dispersés au sein du tissu urbain.
Urban ecosystem services (ES) mapping is attracting a growing interest. However, the diversity of methods and data used can produce divergent results. In particular, estimating the effect of land cover (LC) data spatial resolution on mapping spatial flows of ES from greenspaces to beneficiaries remains a challenge. This study aimed to characterize this effect, in order to improve our ability to predict its magnitude for ES flows produced at different spatial scales. A high spatial resolution (1 m) LC map covering the territory of the city of Laval was acquired, and then aggregated to coarser resolutions of 3, 5, 10 and 15 m. Using these LC maps as input data, three ES were mapped: carbon storage (a global-flow ES), cooling and pollination (two local-flow ES). Results were analyzed for different land use types. Greenspaces cover was generally underestimated at a coarser spatial resolution, leading to an underestimation of calculated ES quantity. For local-flow ES, the effect of LC resolution also depended on changes in the spatial configuration of ES potential supply relative to ES demand. The magnitude of the effect varied between the different land use types, but also between different zones of analysis corresponding to the same land use type, as the effect was sensitive to the local landscape structure. These results demonstrate the importance of considering the effect of LC data spatial resolution when mapping urban ES, especially for local-flow ES. Using high spatial resolution LC data is recommended to adequately map the ES provided by the small greenspaces scattered through the urban fabric.
45

Labrecque, Sandra. "Cartographie de la biomasse forestière à l'aide des données d'inventaire forestier et des images TM de Landsat." Mémoire, Université de Sherbrooke, 2004. http://savoirs.usherbrooke.ca/handle/11143/2376.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’estimation de la biomasse forestière est importante pour la gestion durable des forêts, le suivi des changements globaux et les modèles de productivité forestière. Depuis les protocoles de Montréal et de Kyoto, les besoins en des méthodes de cartographie de la biomasse forestière sont de plus en plus pressants. Plusieurs méthodes d’estimation de la biomasse forestière à l’aide de la télédétection ont été développées, mais leurs avantages comparatifs n’ont pas été évalués pour les forêts du Canada. Cette étude fait la comparaison de quatre méthodes de cartographie de la biomasse forestière sur une région pilote située dans l’Ouest de Terre-Neuve. Le capteur utilisé est TM de Landsat-5 et les méthodes sont : (i) le développement de relations directes entre le signal radiométrique et les valeurs de biomasse mesurées sur le terrain, (ii) l’méthode du k-NN utilisée dans l’inventaire forestier national finlandais, (iii) l’application de tables de conversion en biomasse sur l’image TM classifiée selon la couverture forestière, et (iv) une méthode combinant la classification non dirigée de l’image et l’utilisation de tables de conversion en biomasse et de la carte des polygones forestiers. Une dernière méthode est aussi utilisée comme base de comparaison et est générée à partir des cartes numériques de l’inventaire forestier. Les résultats de chacune des méthodes ont été comparés et la quatrième a donné les meilleurs résultats, suivie par la méthode k-NN. Celles qui ont donné les résultats les moins intéressants sont la méthode 3 par table de conversion et la carte de référence. De plus, les inconvénients majeurs associés à l’utilisation de la méthode 1 ont fait en sorte que cette dernière comporte des contraintes importantes pour une mise en application généralisée sur de grands territoires.||Biomass estimation is important for sustainable forest management, monitoring of global change and forest productivity models, and the need to map forest biomass is increasing rapidly since the Montréal and Kyoto protocols. Several methods for estimating biomass by remote sensing have been developed, but their comparative advantages have not been evaluated for areas in Canada. This study compares four methods of mapping forest biomass on a pilot region located in Western Newfoundland using Landsat-5 image: (i) the development of direct radiometric relationships between Landsat TM reflectance or spectral indices and biomass values measured on forest inventory plots, (ii) the k-NN method used in the Finnish National Forest Inventory , (iii) the application of biomass tables on an unsupervised classification of the TM image by land cover, and (iv) a method that combines the use of image classification, biomass tables and the forest stand maps. A last method was used as a reference map for the validation and was produced by the application of biomass table to the forest stand maps. The results of each method were evaluated using independent validation plots and a comparison with a baseline biomass map. The methods combining the classification process, biomass tables and forest stand maps gave the best overall estimations, followed by the k-NN method. The method that applied biomass tables on the classified TM image was the one that showed the least interesting results, as well as the baseline map. The direct relationships method was also discarded for implementation purposes because it presented important disadvantages.
46

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
47

Gimenez, Rollin. "Exploitation de données optiques multimodales pour la cartographie des espèces végétales suivant leur sensibilité aux impacts anthropiques." Electronic Thesis or Diss., Toulouse, ISAE, 2023. http://www.theses.fr/2023ESAE0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les impacts anthropiques sur les sols végétalisés sont difficiles à caractériser à l'aide d’instruments de télédétection optique. Ces impacts peuvent cependant entrainer de graves conséquences environnementales. Leur détection indirecte est rendue possible par les altérations provoquées sur la biocénose et la physiologie des plantes, qui se traduisent par des changements de propriétés optiques au niveau de la plante et de la canopée. L'objectif de cette thèse est de cartographier les espèces végétales en fonction de leur sensibilité aux impacts anthropiques à l'aide de données de télédétection optique multimodale. Différents impacts anthropiques associés à des activités industrielles passées sont considérés (présence d'hydrocarbures dans le sol, contamination chimique polymétallique, remaniement et compactage du sol, etc.) dans un contexte végétal complexe (distribution hétérogène de diverses espèces de différentes strates). Les informations spectrales, temporelles et/ou morphologiques sont utilisées pour identifier les genres et espèces et caractériser leur état de santé afin de définir et de cartographier leur sensibilité aux différents impacts anthropiques. Des images hyperspectrales aéroportées, des séries temporelles Sentinel-2 et des modèles numériques d'élévation sont exploités indépendamment ou combinés. La démarche proposée repose sur trois étapes. La première consiste à cartographier les impacts anthropiques en combinant des données de télédétection optique et des données fournies par l'opérateur du site (analyses de sol, cartes d'activité, etc.). La seconde étape vise à développer une méthode de cartographie de la végétation à l'aide de données de télédétection optique adaptée à des contextes complexes tels que les sites industriels. Enfin, les variations de la biodiversité et des traits fonctionnels dérivées des images hyperspectrales aéroportées et des modèles numériques d'élévation sont analysées en relation avec la carte d'impact au cours de la troisième étape. Les espèces identifiées comme espèces invasives ainsi que celles en lien avec les pratiques agricoles et forestières et les mesures de biodiversité renseignent sur les impacts biologiques. La cartographie des strates de végétation et la caractérisation de la hauteur des arbres, liées à une succession secondaire, sont utilisées pour détecter les impacts physiques (remaniement du sol, excavations). Enfin, les conséquences du stress induit sur la signature spectrale des espèces sensibles permettent d'identifier les impacts chimiques. Plus précisément, dans le contexte de l'étude, les signatures spectrales de Quercus spp, Alnus glutinosa et des mélanges herbacés varient en fonction de l'acidité du sol, tandis que celles de Platanus x hispanica et des mélanges arbustifs présentent des différences dues aux autres impacts chimiques
Anthropogenic impacts on vegetated soils are difficult to characterize using optical remote sensing devices. However, these impacts can lead to serious environmental consequences. Their indirect detection is made possible by the induced alterations to biocenosis and plant physiology, which result in optical property changes at plant and canopy levels. The objective of this thesis is to map plant species based on their sensitivity to anthropogenic impacts using multimodal optical remote sensing data. Various anthropogenic impacts associated with past industrial activities are considered (presence of hydrocarbons in the soil, polymetallic chemical contamination, soil reworking and compaction, etc.) in a complex plant context (heterogeneous distribution of multiple species from different strata). Spectral, temporal and/or morphological information is used to identify genera and species and characterise their health status to define and map their sensitivity to the various anthropogenic impacts. Hyperspectral airborne images, Sentinel-2 time series and digital elevation models are then used independently or combined. The proposed scientific approach consists of three stages. The first one involves mapping anthropogenic impacts at site level by combining optical remote sensing data with data supplied by the site operator (soil analyses, activity maps, etc.). The second stage seeks to develop a vegetation mapping method using optical remote sensing data suitable to complex contexts like industrial sites. Finally, the variations in biodiversity and functional response traits derived from airborne hyperspectral images and digital elevation models are analysed in relation to the impact map during the third stage. The species identified as invasive species, as well as those related to agricultural and forestry practices, and biodiversity measures provide information about biological impacts. Vegetation strata mapping and characterisation of tree height, linked to secondary succession, are used to detect physical impacts (soil reworking, excavations). Finally, the consequences of induced stress on the spectral signature of susceptible species allow the identification of chemical impacts. Specifically, in the study context, the spectral signatures of Quercus spp., Alnus glutinosa, and grass mixtures vary with soil acidity, while those of Platanus x hispanica and shrub mixtures exhibit differences due to other chemical impacts
48

Martini, Audrey. "Télédétection d'un couvert neigeux en milieux alpins à partir de données SAR polarimétriques multi-fréquentielles et multi-temporelles." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00133805.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le suivi de la neige sèche a une place importante en télédétection, en raison du grand intérêt des applications en hydrologie, climatologie ou de la prévision d'avalanche. Ce travail présente des méthodes d'analyse multi-fréquentielles et multi-temporelles du couvert neigeux en milieux alpins à partir de données SAR polarimétriques. Un modèle électromagnétique de diffusion est tout d'abord présenté et utilisé afin d'étudier le comportement en rétrodiffusion d'un couvert neigeux au moyen de paramètres polarimétriques pertinents. Des procédures de détection de la neige sèche, à partir de données SAR multi-fréquentielles et multi-temporelles, sont alors élaborées. Ces techniques adaptent la méthode de discrimination de la neige en fonction du milieu sous jacent et de la bande de fréquence employée. Finalement, à l'aide d'un modèle numérique de terrain, une étude polarimétrique altitudinale du couvert neigeux est développée, permettant d'associer une altitude à un comportement polarimétrique spécifique. Ces méthodes sont appliquées sur les données SAR polarimétriques SIR-C des sites alpins de Risoul et Izoard.
49

Boitard, Simon. "Cartographie de gènes à caractères quantitatifs par déséquilibre de liaison." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00132675.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ma thèse est de développer des méthodes statistiques permettant d'estimer la position des gènes qui influencent l'expression d'un caractère à valeurs continues (QTL). Je propose d'abord un algorithme numérique permettant d'approcher la densité de transition des fréquences d'haplotypes sous un modèle de diffusion à deux loci avec recombinaison. Je montre aussi que cette méthode peut être utilisée pour calculer la vraisemblance de la position d'un gène. Je présente ensuite une méthode de cartographie de QTL par maximum de vraisemblance. Je calcule la vraisemblance à l'ordre 1 en utilisant l'espérance des fréquences d'haplotypes sous un modèle de Wright-Fisher à 3 loci avec recombinaison, dont je dérive une expression approchée. Je m'intéresse enfin au problème de la détection de QTL dans le cas de populations structurées. J'étudie la loi asymptotique du Transmission Desequilibrium Test (TDT) et en déduis des résultats concernant son erreur de première espèce et sa puissance
50

Da, Silva Franck. "Cartographie des interfaces protéine-protéine et recherche de cavités droguables." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAF034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les interfaces protéine-protéine sont au cœur de nombreux mécanismes physiologiques du vivant. Les caractériser au niveau moléculaire est un donc enjeu crucial pour la recherche de nouveaux candidat-médicaments. Nous proposons ici de nouvelles méthodes d’analyse des interfaces protéine-protéine à visée pharmaceutique. Notre protocole automatisé détecte les interfaces au sein des structures de la Protein Data Bank afin de définir les zones d’interactions à potentiel pharmacologique, les cavités droguables, les ligands présents à l’interface ainsi que les pharmacophores directement déduits à partir des cavités. Notre méthode permet de réaliser un état de l’art des informations disponibles autour des interfaces protéine-protéine ainsi que de prédire de nouvelles cibles potentielles pour des molécules candidats médicaments
Protein-protein interfaces are involved in many physiological mechanisms of living cells. Their characterization at the molecular level is therefore crucial in drug discovery.We propose here new methods for the analysis protein-protein interfaces of pharmaceutical interest. Our automated protocol detects the biologicaly relevant interfaces within the Protein Data Bank structures, droguables cavities, ligands present at the interface and pharmacophores derived directly from the cavities. Our method enables a state-of- the-art of all available structural information about protein-protein interfaces and predicts potential new targets for drug candidates

To the bibliography