Dissertations / Theses on the topic 'Fusion de données géospatiales'

To see the other types of publications on this topic, follow the link: Fusion de données géospatiales.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Fusion de données géospatiales.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cherif, Mohamed Abderrazak. "Alignement et fusion de cartes géospatiales multimodales hétérogènes." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation des données dans divers domaines présente un besoin essentiel de techniques avancées pour fusionner et interpréter ces informations. Avec une emphase particulière sur la compilation de données géospatiales, cette intégration est cruciale pour débloquer de nouvelles perspectives à partir des données géographiques, améliorant notre capacité à cartographier et analyser les tendances qui s'étendent à travers différents lieux et environnements avec plus d'authenticité et de fiabilité. Les techniques existantes ont progressé dans l'adresse de la fusion des données ; cependant, des défis persistent dans la fusion et l'harmonisation des données de différentes sources, échelles et modalités. Cette recherche présente une enquête complète sur les défis et les solutions dans l'alignement et la fusion des cartes vectorielles, se concentrant sur le développement de méthodes qui améliorent la précision et l'utilisabilité des données géospatiales. Nous avons exploré et développé trois méthodologies distinctes pour l'alignement des cartes vectorielles polygonales : ProximityAlign, qui excelle en précision dans les agencements urbains; l'Alignement Basé sur l'Apprentissage Profond du Flux Optique, remarquable pour son efficacité ; et l'Alignement Basé sur la Géométrie Épipolaire, efficace dans les contextes riches en données. De plus, notre étude s'est penchée sur l'alignement des cartes de géometries linéaires, soulignant l'importance d'un alignement précis et du transfert d'attributs des éléments, pointant vers le développement de bases de données géospatiales plus riches et plus informatives en adaptant l'approche ProximityAlign pour des géometries linéaires telles que les traces de failles et les réseaux routiers. L'aspect fusion de notre recherche a introduit un pipeline sophistiqué pour fusionner des géométries polygonales en se basant sur le partitionnement d'espace, l'optimisation non convexe de la structure de données de graphes et les opérations géométriques pour produire une carte fusionnée fiable qui harmonise les cartes vectorielles en entrée, en maintenant leur intégrité géométrique et topologique. En pratique, le cadre développé a le potentiel d'améliorer la qualité et l'utilisabilité des données géospatiales intégrées, bénéficiant à diverses applications telles que la planification urbaine, la surveillance environnementale et la gestion des catastrophes. Cette étude avance non seulement la compréhension théorique dans le domaine mais fournit également une base solide pour des applications pratiques dans la gestion et l'interprétation de grands ensembles de données géospatiales
The surge in data across diverse fields presents an essential need for advanced techniques to merge and interpret this information. With a special emphasis on compiling geospatial data, this integration is crucial for unlocking new insights from geographic data, enhancing our ability to map and analyze trends that span across different locations and environments with more authenticity and reliability. Existing techniques have made progress in addressing data fusion; however, challenges persist in fusing and harmonizing data from different sources, scales, and modalities.This research presents a comprehensive investigation into the challenges and solutions in vector map alignment and fusion, focusing on developing methods that enhance the precision and usability of geospatial data. We explored and developed three distinct methodologies for polygonal vector map alignment: ProximityAlign, which excels in precision within urban layouts but faces computational challenges; the Optical Flow Deep Learning-Based Alignment, noted for its efficiency and adaptability; and the Epipolar Geometry-Based Alignment, effective in data-rich contexts but sensitive to data quality. Additionally, our study delved into linear feature map alignment, emphasizing the importance of precise alignment and feature attribute transfer, pointing towards the development of richer, more informative geospatial databases by adapting the ProximityAlign approach for linear features like fault traces and road networks. The fusion aspect of our research introduced a sophisticated pipeline to merge polygonal geometries relying on space partitioning, non-convex optimization of graph data structure, and geometrical operations to produce a reliable fused map that harmonizes input vector maps, maintaining their geometric and topological integrity.In practice, the developed framework has the potential to improve the quality and usability of integrated geospatial data, benefiting various applications such as urban planning, environmental monitoring, and disaster management. This study not only advances theoretical understanding in the field but also provides a solid foundation for practical applications in managing and interpreting large-scale geospatial datasets
2

Noël, de Tilly Antoine. "Le raisonnement à base de logique propositionnelle à l'appui de la fusion et de la révision de bases de données géospatiales." Master's thesis, Université Laval, 2007. http://hdl.handle.net/20.500.11794/19730.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ce mémoire était d’effectuer, dans un contexte géospatial, une comparai- son d’une approche de raisonnement qualitatif basée sur le PROLOG avec une autre approche reposant sur l’ASP. La principale question que nous posons est la suivante : Le moteur de raisonnement Smodels rendant possible la mise en oeuvre du raisonnement non monotone poussé et faisant intervenir le concept de modèle stable peut-il nous permettre de résoudre des problèmes de vérification de cohérence ontologique et des problèmes de révision dans le contexte de la géomatique ? Pour y répondre, nous avons procédé à une série de tests sur un échantillon de la Base nationale de données topographiques (BNDT). À la lumière des résultats obtenus, cette approche se montre très efficace et contribue à l’amélioration de la cohérence de l’information géospatiale et du raisonnement spatial réalisé à partir de cette dernière.
The objective of this thesis is to make a comparison between a qualitative reasoning approach based on PROLOG with another approach based on ASP. Our principal research question was the following : Can the Smodels reasoning engine, allowing for advanced non monotonic reasoning and introducing the stable model concept, allow us to solve ontological consistency checking problems as well as revision problems in a geomatic context ? To answer this question, we carried out a series of tests on a cross-section from the National Topographical Database (NTDB). In the light of the results obtained, this approach has proven very effective and contributes to the amelioration of geospatial information consistency and to the resultant improvement in spatial reasoning.
3

Noël, de Tilly Antoine. "Le raisonnement à base de logique propositionnelle à l'appui de la fusion et de la révision de bases de données géospatiales." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25066/25066.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ce mémoire était d’effectuer, dans un contexte géospatial, une comparai- son d’une approche de raisonnement qualitatif basée sur le PROLOG avec une autre approche reposant sur l’ASP. La principale question que nous posons est la suivante : Le moteur de raisonnement Smodels rendant possible la mise en oeuvre du raisonnement non monotone poussé et faisant intervenir le concept de modèle stable peut-il nous permettre de résoudre des problèmes de vérification de cohérence ontologique et des problèmes de révision dans le contexte de la géomatique ? Pour y répondre, nous avons procédé à une série de tests sur un échantillon de la Base nationale de données topographiques (BNDT). À la lumière des résultats obtenus, cette approche se montre très efficace et contribue à l’amélioration de la cohérence de l’information géospatiale et du raisonnement spatial réalisé à partir de cette dernière.
The objective of this thesis is to make a comparison between a qualitative reasoning approach based on PROLOG with another approach based on ASP. Our principal research question was the following : Can the Smodels reasoning engine, allowing for advanced non monotonic reasoning and introducing the stable model concept, allow us to solve ontological consistency checking problems as well as revision problems in a geomatic context ? To answer this question, we carried out a series of tests on a cross-section from the National Topographical Database (NTDB). In the light of the results obtained, this approach has proven very effective and contributes to the amelioration of geospatial information consistency and to the resultant improvement in spatial reasoning.
4

Mora, Brice. "Cartographie de paramètres forestiers par fusion évidentielle de données géospatiales multi-sources application aux peuplements forestiers en régénération et feuillus matures du Sud du Québec." Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/2803.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Foresters are faced with difficulties to obtain sub-polygon information with the mapping methods available nowadays. The main objective of this work consisted in the development of new methods able to improve the map accuracy of regenerating forest stands and mature forest stands in the South of Québec, Canada. The Dempster-Shafer Theory (DST) and the Dezert-Smarandache Theory (DSmT) showed their ability to integrate multiple heterogenous data sources to go further than the classical classification procedures like the maximum likelihood or the spectral unmixing, in terms of map accuracy. Improvement on the ability to map regenerating stands, passed from 82.7% with the maximum likelihood method to 91.1% with the Free DSm model with a total transfer of the mass of the"Union" class to the"Intersection" class (+ 8.4%). For the mature stands, the improvement passed from 63.8% with the K nearest neighbour to 79.5% with the DST according to a classical belief structuration and the hybrid decision rule for which the conflict threshold was fixed at 10% (+ 15.7%). Our results with DST and a bayesian belief structuration showed the difficulty to model the uncertainty in the fusion process. This is probably due to the lack of scientific knowledge about the influence of the biophysical and climatic parameters on the mapped forest stands and to the necessity to model specifically the uncertainty for each source. Our work showed concrete improvement when mapping forest stands with DST which is encouraging to continue explorating the fundamental principle of the proposed hybrid decision rule. This means a particular focus on the difference between the fused masses of each potential class after the fusion, to choose the best hypothesis.
5

Leroux, Boris. "Fusion de données LiDAR et photographiques pour le géoréférencement direct d’un lever topographique par micro-drone aérien." Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec le développement des systèmes d'acquisition dynamique, la production de données spatiales a pris une ampleur sans précédent. Pour les exploitants, l'intérêt est d'obtenir un clone numérique du site pour mieux gérer leurs ressources. Pour acquérir ces données la société Hélicéo propose notamment un drone aérien capable d'embarquer soit un appareil photo, soit un capteur LiDAR. Comme toute instrumentation de dynamique, cette solution nécessite de géoréférencer les données acquises.Sur la plupart des systèmes d'acquisition dynamique actuels, le géoréférencement des données acquises est réalisé grâce au couplage d'un récepteur GNSS et d'une centrale inertielle qui permettent de déterminer la trajectoire de la plateforme et son orientation.Pour répondre à ces contraintes, les drones embarquent généralement des capteurs MEMS issus de la micro-technologie qui présentent l'avantage d'être légers, peu encombrants et de consommer peu d'énergie. Cependant, l’incertitude de l'attitude déterminée par ces derniers dégrade la justesse du géoréférencement au point d'être incompatible avec les applications topographiques.Cette thèse propose une méthode alternative de géoréférencement des données acquises par un capteur LiDAR embarqué sur drone basée sur l'utilisation d'une caméra et de l'odométrie visuelle (VO). Ce manuscrit aborde donc dans un premier temps l'aspect théorique de cette nouvelle méthodologie, notamment la détermination de l'attitude à partir des images acquises par une caméra puis le géoréférencement des données LiDAR à partir du couplage GNSS/VO
Within the development of systems dedicated to mobile mapping, spatial data production takes a growing part. For users, this spatial data is particularly interesting when computing digital models which are used to manage efficiently the resource, they are responsible for. To collect this data Hélicéo company especially offers an aerial solution which can embed a camera or a LiDAR sensor. Like every platforms dedicated to dynamic mapping, this system needs to geo-referencing the collected data in a coordinate reference frame.Most of the mobile mapping systems perform direct georeferencing using the trajectory determined from coupled GNSS receiver and inertial measurement unit (IMU). Even if this method is well known et operational for Airborne Laser Scanning (ALS) and Mobile Mapping Systems (MMS), it is hard to transpose for lightweight platforms like drones which require special payloads.To suit this constrains, drones use Micro-Electro Mechanical Systems (MEMS) which are light, compact and require low power. However, the accuracy of the attitude computed from this MEMS sensors is degraded compared to the tactical sensors so that it does not correspond to the accuracy level expected for topographic surveys.The goal of our study was to establish and validate a new methodology based on a camera and visual odometry (VO) computing. This thesis describes the theoretical approach to compute attitude from images taken by a camera and how LiDAR points are georeferenced using GNSS receiver coupled to VO. In the second part, this thesis describes the different experiments and the process we follow to validate this method and the comparison with traditional GNSS/IMU method
6

Martin-Lac, Victor. "Aerial navigation based on SAR imaging and reference geospatial data." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0400.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous cherchons les moyens algorithmiques de déterminer l’état cinématique d’un appareil aérien à partir d’une image RSO observée et de données géospatiales de référence qui peuvent être RSO, optiques ou vectorielles. Nous déterminons la transformation qui associe les coordonnées de l’observation et les coordonnées de la référence et dont les paramètres sont l’état cinématique. Nous poursuivons trois approches. La première repose sur la détection et l’appariement de structures telles que des contours. Nous proposons un algorithme de type Iterative Closest Point (ICP) et démontrons comment il peut servir à estimer l’état cinématique complet. Nous proposons ensuite un système complet qui inclue un détecteur de contours multimodal appris. La seconde approche repose sur une métrique de similarité multimodale, ce qui est un moyen de mesurer la vraisemblance que deux restrictions locales de données géospatiales représentent le même point géographique. Nous déterminons l’état cinématique sous l’hypothèse duquel l’image SAR est la plus similaire aux données géospatiales de référence. La troisième approche repose sur la régression de coordonnées de scène. Nous prédisons les coordonnées géographiques de morceaux d’images et déduisons l’état cinématique à partir des correspondances ainsi prédites. Cependant, dans cette approche, nous ne satisfaisons pas l’hypothèse de multimodalité
We seek the algorithmic means of determining the kinematic state of an aerial device from an observation SAR image and reference geospatial data that may be SAR, optical or vector. We determine a transform that relates the observation and reference coordinates and whose parameters are the kinematic state. We follow three approaches. The first one is based on detecting and matching structures such as contours. We propose an iterative closest point algorithm and demonstrate how it can serve to estimate the full kinematic state. We then propose a complete pipeline that includes a learned multimodal contour detector. The second approach is based on a multimodal similarity metric, which is the means of measuring the likelihood that two local patches of geospatial data represent the same geographic point. We determine the kinematic state under the hypothesis of which the SAR image is most similar to the reference geospatial data. The third approach is based on scene coordinates regression. We predict the geographic coordinates of random image patches and infer the kinematic state from these predicted correspondences. However, in this approach, we do not address the fact that the modality of the observation and the reference are different
7

Devillers, Rodolphe. "Conception d'un système multidimensionnel d'information sur la qualité des données géospatiales." Phd thesis, Université de Marne la Vallée, 2004. http://tel.archives-ouvertes.fr/tel-00008930.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'information géographique est maintenant un produit de masse fréquemment manipulé par des utilisateurs non-experts en géomatique qui ont peu ou pas de connaissances de la qualité des données qu'ils utilisent. Ce contexte accroît significativement les risques de mauvaise utilisation des données et ainsi les risques de conséquence néfaste résultant de ces mauvaises utilisations. Cette thèse vise à fournir à des utilisateurs experts ou des experts en qualité une approche leur permettant d'évaluer la qualité des données et ainsi être à même de conseiller des utilisateurs non-experts dans leur utilisation des données. Cette approche se base sur une structuration des données de qualité dans une base de données multidimensionnelle et une communication dynamique et contextuelle utilisant des indicateurs de qualité affichés dans un système SOLAP (Spatial On-Line Analytical Processing) combiné à un système d'information géographique.
8

Ugon, Adrien. "Fusion symbolique et données polysomnographiques." Paris 6, 2013. http://www.theses.fr/2013PA066187.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières décennies, la médecine a nécessité des examens de plus enplus complexes pour effectuer un diagnostic et orienter vers un traitement. Il est mêmecourant de pratiquer plusieurs examens dans des spécialités médicales différentes afind’étudier une pathologie par des approches multiples et ainsi mieux la connaître. Cela pose des difficultés d’inteprétation car les données sont parfois hétérogènes maissurtout souvent très pointues et leur traitement requiert une expertise du domaine. Dans ce contexte, la fusion symbolique constitue une solution possible. En effet, ellea prouvé son efficacité à traiter des problèmes sur des niveaux d’abstraction aussi bienfaibles qu’élevés et à élaborer une connaissance de haut niveau. Cette thèse démontre l’efficacité de la fusion symbolique appliquée au traitement desdonnées polysomnographiques pour l’élaboration d’un outil de support au diagnostic duSyndrome d’Apnées du Sommeil. Pour être diagnostiqué, ce trouble du sommeil nécessiteune polysomnographie. Cet examen médical consiste en l’enregistrement simultané dedivers paramètres physiologiques durant toute une nuit. Son interprétation nécessitel’annotation des courbes enregistrées par une analyse visuelle effectuée par un médecinspécialiste du sommeil, ce qui est une tâche chronophage et fastidieuse dont les résultatspeuvent présenter quelques divergences d’un expert à l’autre. Le recours à un outil desupport au diagnostic fiable permet d’augmenter le consensus. Cette thèse développe lesétapes d’élaboration d’un tel outil
In recent decades, medical examinations required to diagnose and guide to treatmentbecame more and more complex. It is even a current practice to use several examinationsin different medical specialties to study a disease through multiple approaches so as todescribe it more deeply. The interpretation is difficult because the data is both heterogeneous and also veryspecific, with skilled domain of knowledge required to analyse it. In this context, symbolic fusion appears to be a possible solution. Indeed, it wasproved to be very effective in treating problems with low or high levels of abstraction ofinformation to develop a high level knowledge. This thesis demonstrates the effectiveness of symbolic fusion applied to the treatmentof polysomnographic data for the development of an assisted diagnosis tool of Sleep ApneaSyndrome. Proper diagnosis of this sleep disorder requires a polysomnography. This medicalexamination consists of simultaneously recording of various physiological parametersduring a night. Visual interpretation is tedious and time consuming and there commonlyis some disagreement between scorers. The use of a reliable support-to-diagnosis toolincreases the consensus. This thesis develops stages of the development of such a tool
9

Hamaina, Rachid. "Enrichissement des référentiels géographiques pour la caractérisation morphologique des tissus urbains." Ecole centrale de Nantes, 2013. http://www.theses.fr/2013ECDN0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La disponibilité accrue des bases de données géographiques en a fait un produit grand public dont les usages se sont multipliés et diversifiés pour recouvrir la plupart des problématiques à composante spatiale. Ces données ont un caractère générique et ne sont pas toujours adaptées à tous les usages qu'on peut en faire. En effet, elles peuvent être qualifiées de pauvres. D'abord, parce que leurs géométries consistent souvent en des objets cartographiquement généralisés et ensuite parce qu'elles sont très peu informées d'un point de vue sémantique (ou thématique). Ce sont des objets spatiaux qui ne sont généralement pas associés à des informations attributaires susceptibles d'être exploitées directement dans différentes applications métiers. L'enrichissement sémantique et l'extraction de connaissances à partir de ces bases de données génériques est extrêmement utile pour ces applications. Nous nous intéressons ici à l'exploration et l'analyse des données géographiques de base pour en extraire des connaissances utiles à la caractérisation de la morphologie urbaine. Celle-ci étant dénie comme le résultat de l'assemblage spatial des éléments constitutifs de l'environnement urbain, à savoir les rues, les parcelles et les bâtiments. Un modèle de ville très simple pour représenter l'environnement urbain peut être extrait des bases de données géographiques. Il est constitué d'une couche de réseaux viaires sous forme unidimensionnelle (1D) et d'une couche de bâtiments bi ou tridimensionnelle (2D ou 2. 5D) représentée sous forme d'empreintes surfaciques au sol des bâtiments. La caractérisation de la morphologie consiste en l'exploration de la macrostructure spatiale urbaine à partir du réseau de rues et l'analyse de la microstructure spatiale urbaine à partir de la couche des empreintes du bâti. Ainsi, l'analyse de la macro-structure de la ville s'appuie sur la détection de motifs géométriques particuliers qui peuvent être associés à certains types de tissus urbains et ce sans connaissance préalable du contexte et de l'histoire urbaine de la ville en question. L'analyse de la micro-structure spatiale s'appuie en premier lieu sur la construction d'un modèle hiérarchique et multi-échelle morpho-compatible. En deuxième lieu, les propriétés morphologiques sont formalisées et traduits en un ensemble d'indicateurs utilisé dans un processus de classification pour définir des zones urbaines morphologiquement homogènes. Finalement, nous exploitons le même modèle pour développer une nouvelle méthode pour la caractérisation de la densité urbaine comme étant la propriété morphologique la plus utilisée en analyse et aménagement urbains et pour des fins descriptives que prescriptives. Ces méthodes de caractérisation de la morphologie urbaine sont développées dans un environnement SIG, elles sont applicables sur de larges volumes de données, elles utilisent des données pauvres, elles sont reproductibles indépendamment du contexte urbain et permettent de dépasser les caractérisations classiques qui sont essentiellement descriptives et difficilement objectivables
The growing availability of geographic databases makes them a great public product for which the uses are extended to cover most of spatial issues. These databases are generic and are usually not suitable for all potential uses. Furthermore, these are semantically poor. Semantic enrichment and knowledge extraction from these data can be very useful for thematic applications. We are interested here by the exploration of geographic databases to extract some useful knowledge for urban morphology characterization. A very simple city model for urban environment can be extracted from geographic databases. This is formed by a 1D street network layer and a (2D or 2. 5D) buildings footprints layer. Morphology characterization consist of the urban spatial macro-structure exploration from street network and urban spatial micro-structure analysis from buildings footprints. The city macro-structure analysis is based on geometric patterns detection. These can be associated to some urban fabric types. This can be done independently of any urban context and history. The spatial micro-structure analysis is based on: First, the construction of a hierarchic and multi-level urban model. This is suitable for morphologic issues. Second, morphologic properties are formalized and traduced to a set of indicators which is used into a clustering process to delineate some morphologically homogeneous urban areas. Finally, the hierarchic model is used to develop a new aware neighborhood density characterization since density is the most used morphologic property in urban design and analysis. These methods of urban morphology characterization are developed in a GIS environment and can be used on huge data. These use poor semantic data, are reproducible independently of urban context and allow improving classic characterizations mainly descriptive and not easily objective
10

Fischer, Nicolas. "Fusion statistique de fichiers de données." Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fusion statistique de fichiers a pour but de rapprocher des données issues des sources différentes. Lorsque des données sont manquantes, les techniques de fusion permettent de transférer de l’information, c’est à dire les variables d’intérêt, contenues dans un certain nombre de fichiers (fichiers donneurs) à un autre fichier(fichier receveur). Cette méthode repose sur l’existence de variables communes, aux différents fichiers. Nous proposons de nouvelles approches de modélisation des variables d’intérêt qualitatives, qui font appel à la régression logistique et la régression PLS. Celle-ci est particulièrement intéressante dans le cas de données fortement corrélées. Ces méthodes ont été appliquées à des données réelles et validées selon plusieurs critères qui permettent de s’assurer de la qualité de l’analyse. Enfin, un système d’aide à la décision performant, fondé sur l’indicateur lift, a été validé opérationnellement
It is the objective of statistical data fusion to put together data emanating from distinct sources. When data are incomplete in files, fusion methodologies enable to transfer information, i. E. Variables of interest which are available in the so called donor files into a recipient file. This technique is based on the presence of common variables between the different files. We introduce new models for qualitative data which involve logistic and PLS regression. The latter is of special interest when dealing with highly correlated data set. These methods have been successfully tested on real data set and validated according to several criteria assessing the quality of statistical analysis. Finally, a decision making process has been operationally validated by using the lift indicator
11

Kurdej, Marek. "Exploitation of map data for the perception of intelligent vehicles." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2174/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des logiciels contrôlant les véhicules intelligents traite de la compréhension de la scène. De nombreuses méthodes existent actuellement pour percevoir les obstacles de façon automatique. La majorité d’entre elles emploie ainsi les capteurs extéroceptifs comme des caméras ou des lidars. Cette thèse porte sur les domaines de la robotique et de la fusion d’information et s’intéresse aux systèmes d’information géographique. Nous étudions ainsi l’utilité d’ajouter des cartes numériques, qui cartographient le milieu urbain dans lequel évolue le véhicule, en tant que capteur virtuel améliorant les résultats de perception. Les cartes contiennent en effet une quantité phénoménale d’information sur l’environnement : sa géométrie, sa topologie ainsi que d’autres informations contextuelles. Dans nos travaux, nous avons extrait la géométrie des routes et des modèles de bâtiments afin de déduire le contexte et les caractéristiques de chaque objet détecté. Notre méthode se base sur une extension de grilles d’occupations : les grilles de perception crédibilistes. Elle permet de modéliser explicitement les incertitudes liées aux données de cartes et de capteurs. Elle présente également l’avantage de représenter de façon uniforme les données provenant de différentes sources : lidar, caméra ou cartes. Les cartes sont traitées de la même façon que les capteurs physiques. Cette démarche permet d’ajouter les informations géographiques sans pour autant leur donner trop d’importance, ce qui est essentiel en présence d’erreurs. Dans notre approche, le résultat de la fusion d’information contenu dans une grille de perception est utilisé pour prédire l’état de l’environnement à l’instant suivant. Le fait d’estimer les caractéristiques des éléments dynamiques ne satisfait donc plus l’hypothèse du monde statique. Par conséquent, il est nécessaire d’ajuster le niveau de certitude attribué à ces informations. Nous y parvenons en appliquant l’affaiblissement temporel. Étant donné que les méthodes existantes n’étaient pas adaptées à cette application, nous proposons une famille d’opérateurs d’affaiblissement prenant en compte le type d’information traitée. Les algorithmes étudiés ont été validés par des tests sur des données réelles. Nous avons donc développé des prototypes en Matlab et des logiciels en C++ basés sur la plate-forme Pacpus. Grâce à eux nous présentons les résultats des expériences effectués en conditions réelles
This thesis is situated in the domains of robotics and data fusion, and concerns geographic information systems. We study the utility of adding digital maps, which model the urban environment in which the vehicle evolves, as a virtual sensor improving the perception results. Indeed, the maps contain a phenomenal quantity of information about the environment : its geometry, topology and additional contextual information. In this work, we extract road surface geometry and building models in order to deduce the context and the characteristics of each detected object. Our method is based on an extension of occupancy grids : the evidential perception grids. It permits to model explicitly the uncertainty related to the map and sensor data. By this means, the approach presents also the advantage of representing homogeneously the data originating from various sources : lidar, camera or maps. The maps are handled on equal terms with the physical sensors. This approach allows us to add geographic information without imputing unduly importance to it, which is essential in presence of errors. In our approach, the information fusion result, stored in a perception grid, is used to predict the stateof environment on the next instant. The fact of estimating the characteristics of dynamic elements does not satisfy the hypothesis of static world. Therefore, it is necessary to adjust the level of certainty attributed to these pieces of information. We do so by applying the temporal discounting. Due to the fact that existing methods are not well suited for this application, we propose a family of discoun toperators that take into account the type of handled information. The studied algorithms have been validated through tests on real data. We have thus developed the prototypes in Matlab and the C++ software based on Pacpus framework. Thanks to them, we present the results of experiments performed in real conditions
12

Lévesque, Johann. "Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24759/24759.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis l’avènement du numérique, la demande de données par les utilisateurs des systèmes d’information géographique (SIG) ne fait qu’augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s’il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l’expert en qualité doit recueillir de l’information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d’une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l’aide d’opérateurs d’agrégation typiques des outils SOLAP. Il s’agit là d’une solution qui permet de faciliter l’analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l’utilisation du système MUM dans sa forme actuelle. L’objectif de la présente recherche a donc été d’élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d’un jeu de données à l’aide des métadonnées grossières et des opinions d’experts touchant un ensemble d’occurrences. Cette méthodologie amène l’expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l’hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d’hétérogénéité. Il permet en effet de quantifier le risque lié à l’imperfection de l’information contenue dans les indicateurs de qualité. L’enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d’intégrer la dimension « Métaqualité » dans le processus d’évaluation de la qualité.
13

Hotte, Sylvain. "Traitements spatiaux dans un contexte de flux massifs de données." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30956.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, nous avons constaté une augmentation du volume d’information sous la forme de flux de données. Cette augmentation rend le traitement de ces flux par des méthodes traditionnelles non performant, voire impossible. De plus, la mise à jour rapide des informations suscite un intérêt grandissant pour leurs traitements en temps réel afin d’en tirer une plus grande valeur. Ces données massives étant souvent géoréférencées, il devient donc pertinent d’offrir des méthodes permettant d’effectuer des traitements spatiaux sur ces flux massifs de données. Cependant, le sujet des traitements spatiaux dans un contexte de flux massifs a très peu été abordé dans la recherche scientifique. Les études qui ont été faites traitaient toujours de flux massif de données en relation avec des données persistantes. Aucune recherche ne portait sur des traitements spatiaux ayant plusieurs flux massifs de données spatiales. La problématique est de déterminer des méthodes de traitements pour des opérateurs spatiaux dont les paramètres sont issus de flux massifs de données spatiales. Notre objectif général consiste à explorer les caractéristiques permettant l’élaboration de tels traitements et d’offrir des pistes de solution. Nos travaux de recherche ont fait ressortir les facteurs influençant l’adaptation des traitements spatiaux dans un contexte de traitement en parallèle de flux massif de données. Nous avons déterminé que les méthodes d’adaptation peuvent se décliner en classes sur la base des caractéristiques de l’opérateur spatial, mais aussi sur la nature des données et la façon dont elles sont rendues disponibles. Nous avons proposé des méthodes générales de traitement pour chacune des classes identifiées afin de guider les stratégies d’adaptations. Pour la classe dont le traitement d’opérateur binaire possède des opérandes issus de flux massifs, nous avons détaillé une méthode d’adaptation permettant l’utilisation d’opérateurs spatiaux. Afin de tester l’efficacité et la validité de la méthode proposée, nous avons appliqué cette méthode à un opérateur relationnel d’intersection et un opérateur d’analyse de proximité, soit les "k" plus proches voisins. Ces tests ont permis de vérifier la validité et de quantifier l’efficacité des méthodes proposée par rapport à l’évolution, ou scalabilité, horizontale du système (ajout du nombre de cœurs). Nos tests ont aussi permis de quantifier l’effet de la variation du niveau de partitionnement sur les performances du débit de traitement. Notre contribution permettra, nous l’espérons, de servir de point de départ pour l’adaptation d’opérateurs spatiaux plus complexes.
In recent years we have witnessed a significant volume increase of data streams. The traditional way of processing this information is rendered inefficient or even impossible by this high volume of data. There is an increase in the interest of real time data processing in order to derive greater value of the data. Since those data are often georeferenced, it becomes relevant to offer methods that enable spatial processing on big data streams. However, the subject of spatial processing in a context of Big Data stream has seldom been discussed in scientific research. All the studies that have been done so far involve persistent data and none of them deals with the case where two Big Data streams are in relation. The problem is therefore to determine how to adapt the processing of spatial operators when their parameters derive from two Big Spatial Data stream. Our general objective is to explore the characteristics that allow the development of such analysis and to offer potential solutions. Our research has highlighted the factors influencing the adaptation of spatial processing in a context of Big Data stream. We have determined that adaptation methods can be categorized in different categories according to the characteristics of the spatial operator but also on the characteristics of the data itself and how it is made available. We proposed general methods of spatial processing for each category in order to guide adaptation strategies. For one of these categories, where a binary operator has both operands coming from Big Data stream, we have detailed a method allowing the use of spatial operators. In order to test the effectiveness and validity of the proposed method, we applied this method to an intersection operator and to a proximity analysis operator, the "k" nearest neighbors. These tests made it possible to check the validity and to quantify the effectiveness of the proposed methods in relation to the system evolution or scalability, i.e. increasing the number of processing cores. Our tests also made it possible to quantify the effect of the variation of the partitioning level on the performances of the treatment flow. Our contribution will, hopefully, serves as a starting point for more complex spatial operator adaptation.
14

Engélinus, Jonathan. "Elaboration d'un moteur de traitement des données spatiales massives vectorielles optimisant l'indexation spatiale." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28046.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les données massives se situent au coeur de beaucoup d’enjeux scientifiques et sociétaux, et leur volume global ne cesse de croître. Il devient donc crucial de disposer de solutions permettant leur traitement et leur analyse. Hélas, alors qu’une majorité de ces données intègrent une composante spatiale vectorielle, peu de systèmes sont à même de gérer cette dernière. En outre, les rares prototypes qui s’y essaient respectent mal les standards ISO et les spécifications OGC et présentent des performances limitées. La présente recherche visait donc à déterminer comment gérer les données spatiales massives vectorielles de façon plus complète et efficiente. Il s’agissait en particulier de trouver une façon de les indexer avec une bonne scalabilité horizontale, d’assurer leur compatibilité avec la norme ISO-19125 et ses extensions, et de les rendre accessibles depuis les logiciels SIG. Il en résulte le système Elcano, une extension spatiale au système de gestion de données massives Spark qui fournit des performances accrues par rapport aux solutions du marché.
Big data are in the midst of many scientific and economic issues. Furthermore their volume is continuously increasing. As a result, the need for management and processing solutions has become critical. Unfortunately, while most of these data have a vectorial spatial component, almost none of the current systems are able to manage it. In addition, the few systems who try either do not respect the ISO standards and OGC specifications or show poor performances. The aim of this research was then to determine how to manage the vectorial massive data more completely and efficiently. The objective was to find a scalable way of indexing them, ensuring their compatibility with ISO-19125 and its extensions, and making them accessible from GIS. The result is the Elcano system. It is an extension of the massive data management system Spark which provides increased performance compared to current market solutions.
15

Randrianarivelo, Mamy Dina. "Proposition d’un cadre conceptuel d’arrimage des savoirs géographiques locaux dans les macro-observatoires : cas de la région DIANA Madagascar." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le recours aux données géographiques issues des macro-observatoires s’impose comme la solution incontournable pour les agences de développement et bailleurs de fonds internationaux en quête de données structurées et facilement accessibles. Ces données sont pourtant conçues selon une vision globalisante qui ne reflète pas ou pas suffisamment les contextes spécifiques locaux sur lesquels ces acteurs doivent intervenir. Dans les pays du Sud en particulier, les savoirs géographiques locaux constituent le plus souvent la seule source de données terrain disponible. Mais leur fiabilité et leur utilité sont souvent questionnées, en comparaison des données statistiques ou cartographiques des macro-observatoires. En effet, ils ne sont que peu ou pas formalisés. Ils nécessitent des processus de collecte de terrain complexes à mettre en œuvre. Leur interprétation est souvent difficile, en particulier pour les acteurs occidentaux. Ce travail de recherche a pour objectif la conception d’un cadre d’intégration des savoirs géographiques locaux dans les macro-observatoires. Il repose concrètement sur l’observation, l’analyse et la mise en relief des points communs et des différences des deux types de savoirs géographiques, à partir du cas de la région de DIANA à Madagascar; et plus précisément des savoirs locaux issues d’une démarche de Zonage À Dire d’Acteurs (ZADA) et des données globales de l’observatoire « Harvest Choice » de l’International Food Policy Research Institute (IFPRI). Mots-clés : Macro-observatoires, données locales, données globales, infrastructure de données spatiales, intégration des données, connaissances locales, connaissances experts, SIG.
16

Ranchin, Thierry. "Fusion de données et modélisation de l'environnement." Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00520780.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux effectués dans le cadre de mes activités de recherche et d'enseignements au sein du Centre Energétique et Procédés de l'Ecole des Mines de Paris concernent la description et la compréhension des problématiques liées à l'environnement dans le cadre du protocole de Kyoto. Dans ce cadre, les satellites d'observation de la Terre sont un formidable outil d'investigation. Ils permettent notamment une perception des phénomènes physiques au travers des structures dans l'espace et leur évolution dans le temps. Mes travaux exploitent les observations et mesures satellitaires (images, profils). Ils s'appuient sur la modélisation des structures observées dans l'environnement et sur la fusion de données. Pour cette dernière, j'ai adopté la définition proposée par le groupe de travail de l'association EARSeL (European Association of Remote Sensing Laboratories) : "la fusion de données constitue un cadre formel dans lequel s'expriment les moyens et techniques permettant l'alliance des données provenant de sources diverses. Elle vise à obtenir des informations de meilleure qualité ; la définition de meilleure qualité dépendant de l'application". Elle vise donc à tirer le meilleur parti possible de l'ensemble des observations et informations disponibles sur notre environnement.
17

BARRA, Vincent. "Modélisation, classification et fusion de données biomédicales." Habilitation à diriger des recherches, Université Blaise Pascal - Clermont-Ferrand II, 2004. http://tel.archives-ouvertes.fr/tel-00005998.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire synthétise les travaux que j'ai menés de 2000 à 2004, au sein de deux laboratoires des facultés de Clermont-Ferrand : l'Equipe de Recherche en Imagerie Médicale (ERIM, Université d'Auvergne), où j'ai effectué ma thèse, et le Laboratoire d'Informatique, de Modélisation et d'Optimisation des Systèmes (LIMOS, Université Blaise Pascal) dans lequel j'ai été accueilli suite à mon recrutement en tant que maître de conférences dans cette même université. Ce changement de laboratoire s'est accompagné d'une modification de mon thème principal de recherche, passant du traitement d'images médicales multimodales par des techniques de fusion d'informations, au domaine de la bioinformatique en général, et de l'étude des puces à ADN en particulier. Plutôt que d'essayer de regrouper artificiellement ces deux thèmes au sein d'un même plan, j'ai préféré diviser ce mémoire en deux parties distinctes et cohérentes, chacune traitant d'un des deux aspects de recherche que je mène actuellement de front. Ainsi, la première partie résume les travaux que j'ai effectués depuis 2001 dans le domaine de la fusion de données appliquée au traitement d'images 3D du cerveau, soit directement soit dans le cadre du co-encadrement de deux doctorants. Le dernier chapitre de cette partie met en particulier en perspective les nouveaux développements espérés sur la stimulation magnétique transcrânienne, à travers l'encadrement d'une thèse CIFRE que j'assure par délégation à temps plein. La seconde partie se concentre sur les recherches que je mène depuis septembre 2001 au LIMOS, concernant l'étude des images de puces à ADN. J'expose dans cette partie au travers de trois chapitres mon projet de recherche dans ce domaine, et je présente pour chaque choix retenu ma contribution sous la forme d'un simulateur d'images de biopuces transcriptome et de nouvelles méthodes d'analyse de ces images. Si les deux parties sont clairement décorrélées, j'ai néanmoins essayé de dégager une problématique générale commune à mes travaux, que j'ai nommée sans forfanterie modélisation, classification et fusion de données biomédicales, et qui constitue le titre de ce manuscrit.
18

Mathieu, Jean. "Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28019/28019.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause.
In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
19

Brulin, Damien. "Fusion de données multi-capteurs pour l'habitat intelligent." Thesis, Orléans, 2010. http://www.theses.fr/2010ORLE2066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concept d’habitat intelligent s’est largement développé ces dernières années afin de proposer des solutions face à deux préoccupations majeures : la gestion optimisée de l’énergie dans le bâtiment et l’aide au maintien à domicile de personnes âgées. C’est dans ce contexte que le projet CAPTHOM, dans lequel s’inscrit cette thèse, a été développé. Pour répondre à ces problématiques, de nombreux capteurs, de natures différentes, sont utilisés pour la détection de la présence humaine, la détermination de la localisation et de la posture de la personne. En effet, aucun capteur, ne peut, seul, répondre à l’ensemble de ces informations justifiant le développement d’un dispositif multi-capteurs et d’une politique de fusion de données. Dans ce projet, les capteurs retenus sont les détecteurs infrarouges passifs, les thermopiles et la caméra. Aucun capteur n’est porté par la personne (non invasivité du dispositif). Nous proposons une architecture globale du capteur intelligent composée de quatre modules de fusion permettant respectivement de détecter la présence humaine, de localiser en 3D la personne, de déterminer la posture et d’aider à la prise de décision finale selon l’application visée. Le module de détection de présence fusionne les informations des trois capteurs : les détecteurs IRP pour la détection du mouvement, les thermopiles pour la présence en cas d’immobilité de la personne et la caméra pour identifier l’entité détectée. La localisation 3D de la personne est réalisée grâce à l’estimation de position sur horizon glissant. Cette méthode, nommée Visual Receding Horizon Estimation (VRHE), formule le problème d’estimation de position en un problème d’optimisation non linéaire sous contraintes dans le plan image. Le module de fusion pour la détermination de posture s’appuie sur la théorie des ensembles flous. Il assure la détermination de la posture indépendamment de la personne et de sa distance vis à vis de la caméra. Enfin, un module d’aide à la décision fusionne les sorties des différents modules et permet de déclencher des alarmes dans le cas de la surveillance de personnes âgées ou de déclencher des applications domotiques (chauffage, éclairage) pour la gestion énergétique de bâtiments
The smart home concept has been widely developed in the last years in order to propose solutions for twomain concerns : optimized energy management in building and help for in-home support for elderly people.In this context, the CAPTHOM project, in which this thesis is in line with, has been developed. To respondto these problems, many sensors, of different natures, are used to detect the human presence, to determinethe position and the posture of the person. In fact, no sensor can , alone, answers to all information justifyingthe development of a multi-sensor system and a data fusion method. In this project, the selected sensorsare passive infrared sensors (PIR), thermopiles and a video camera. No sensor is carried by the person(non invasive system). We propose a global architecture of intelligent sensor made of four fusion modulesallowing respectively to detect the human presence, to locate in 3D the person, to determine the posture andto help to make a decision according to the application. The human presence module fuses information ofthe three sensors : PIR sensors for the movement, thermopiles for the presence in case of immobility and thecamera to identify the detected entity. The 3D localisation of the person is realized thanks to position recedinghorizon estimation. This method, called Visual Receding Horizon Estimation (VRHE), formulates the positionestimation problem into an nonlinear optimisation problem under constraints in the image plane. The fusionmodule for the posture determination is based on fuzzy logic. It insures the posture determination regardlessof the person and the distance from the camera. Finally, the module to make a decision fuses the outputs of the preceding modules and gives the opportunity to launch alarms (elderly people monitoring) or to commandhome automation devices (lightning, heating) for the energy management of buildings
20

Roy, Tania. "Nouvelle méthode pour mieux informer les utilisateurs de portails Web sur les usages inappropriés de données géospatiales." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30370/30370.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cas de portails Web donnant accès à de multiples jeux de données, il peut être difficile pour un utilisateur métier non expert en données géospatiales d’évaluer si les données présentent des risques d’utilisation, la seule information généralement disponible étant les métadonnées. Elles sont généralement présentées dans un langage technique, ce qui peut limiter la compréhension de leur portée sur les décisions de l’utilisateur. L’objectif principal de ce mémoire est de proposer une approche pour aider les utilisateurs et producteurs de données géospatiales à identifier et gérer les risques reliés à l’utilisation envisagée de données acquises dans un portail Web a posteriori de la production des données. L’approche utilisée pour répondre à nos objectifs consiste en une série de questions structurées adressées à l’utilisateur dont les réponses permettent d’identifier des risques. Dans le cas où celui-ci identifie des risques d’utilisation, des actions spécifiques de gestion du risque sont suggérées.
In the case of Web portals providing access to multiple data sets, it may be difficult for a non-expert user to assess if data may present risks; the only information generally available being metadata. These metadata are generally presented in a technical language, and it can be difficult for a non-expert user to understand the scope of the metadata on their decisions. The main objective of this thesis is to propose an approach for helping users and producers of geospatial data to identify and manage risks related to the planned use of data acquired through a Web portal, a posteriori of the production of data. The approach developed uses a series of structured questions to be answered by a user of geospatial data. Depending on the answers, the user can identify risks of use. When risks of data misuse are identified, specific risk management actions are suggested.
21

Bouchard, Aurélie. "Bilans d'eau et d'énergie par inversion et fusion de données." Paris 6, 2006. http://www.theses.fr/2006PA066447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’essor de la télédétection spatiale a permis l’accès à une source d’informations de forte densité spatiale et temporelle, complémentaire aux sources de données préexistantes. C’est dans ce contexte que la méthode d’analyse et d’assimilation de données, appelée MANDOPAS 4D, a été développée. Cette analyse est utilisée dans le cas présent comme méthode d’inversion et de fusion de données. Elle est exploitée sur l’ensemble des observations satellite, sol et aéroportée disponibles pour accéder aux champs de base nécessaires à l’obtention des bilans d’eau et d’énergie. Cette analyse, évaluée sur un jeu de données issu d’une simulation réalisée avec le modèle Méso-NH est appliquée à un cas d’étude réel, le cyclone Bret documenté et observé dans le Golfe du Mexique du 18 au 23 août 1999. Une analyse des champs thermodynamique et dynamique, à l’échelle synoptique et à la méso-échelle, issue de MANDOPAS4D est réalisée, aboutissant à une estimation des bilans d’eau et d’énergie dans l’environnement et au sein du cyclone
For some years many satellites were launched in order to bring new and/or more information on meteorological circulations and associated cloud systems over oceanic surfaces. To process these new data, new methods, in particular methods of data assimilation allowing the processing and merging of these new various kinds of data are needed. In this context MANDOPAS4D, 4D variational data assimilation and analysis technic to retrieve 4D fields has been developed. Sensitivity tests on used dataset synthetised from a non-hydrostatic meso-scale numerical simulation will be discussed in a first part. The present work illustrates this method on a real data set devoted to the study of the hurricane Bret. This hurricane was located over the Gulf of Mexico from the 18th to the 23rd of August 1999. Thus a documentation of dynamical and thermodynamical quantity and moisture and energy budget at meso-scale and synoptic scale has been made
22

Everaere, Patricia. "Contribution à l'étude des opérateurs de fusion : manipulabilité et fusion disjonctive." Artois, 2006. http://www.theses.fr/2006ARTO0402.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les opérateurs de fusion propositionnelle permettent de déterminer les croyances/buts d'un groupe d'agents à partir des croyances/buts individuels, exprimés par des formules de la logique propositionnelle. Deux critères souvent utilisés pour comparer les opérateurs existants sont la rationalité et l'efficacité algorithmique. Notre thèse est que ces deux seuls critères ne suffisent pas et qu'il faut considérer en plus celui de la manipulabilité. Un opérateur de fusion est dit manipulable si l'un des agents intervenant dans le processus de fusion réussit à modifier le résultat de la fusion, pour le rendre plus conforme à ses attentes, en mentant sur ses véritables croyances/buts. Un opérateur de fusion manipulable ne donne aucune garantie quant à l'adéquation des résultats qu'il donne aux croyances/buts du groupe puisqu'il n'incite pas les agents à fournir leurs croyances/buts véritables. Dans cette thèse, notre première contribution est une étude de la manipulabilité des opérateurs de fusion propositionnelle existants. Elle montre qu'aucun opérateur de fusion existant ne remplit pleinement les trois critères considérés : rationalité, efficacité algorithmique et non-manipulabilité. Notre seconde contribution concerne la mise en évidence de deux nouvelles familles d'opérateurs de fusion disjonctifs, i. E. Des opérateurs qui assurent que le résultat de la fusion implique la disjonction des informations initiales. Les opérateurs de ces familles constituent des alternatives intéressantes aux opérateurs (disjonctifs) à sélection de formules, qui ont une complexité algorithmique élevée, sont manipulables et ne sont pas pleinement rationnels
Propositional merging operators aim at defining the beliefs/goals of a group of agents from their individual beliefs/goals, represented by propositional formulae. Two widely used criteria for comparing existing merging operators are rationality and computational complexity. Our claim is that those two criteria are not enough, and that a further one has to be considered as well, namely strategy-proofness. A merging operator is said to be non strategy-proof if there is an agent involved in the merging process who can change the result of the merging, so as to make it closer to her expected one, by lying on her true beliefs/goals. A non strategy-proof merging operator does not give any guarantee that the results it provides are adequate to the beliefs/goals of the group, since it does not incite the agents to report their true beliefs/goals. A first contribution of this thesis consists of a study of the strategy-proofness of existing propositional merging operators. It shows that no existing merging operators fully satisfy the three criteria under consideration: rationality, complexity and strategy-proofness. Our second contribution consists of two new families of disjunctive merging operators, i. E. , operators ensuring that the result of the merging process entails the disjunction of the information given at start. The operators from both families are shown as valuable alternatives to formula-based merging operators, which are disjunctive, but exhibit a high computational complexity, are not strategy-proof, and are not fully rational
23

Alibay, Manu. "Fusion de données capteurs étendue pour applications vidéo embarquées." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail réalisé au cours de cette thèse se concentre sur la fusion des données d'une caméra et de capteurs inertiels afin d'effectuer une estimation robuste de mouvement pour des applications vidéos embarquées. Les appareils visés sont principalement les téléphones intelligents et les tablettes. On propose une nouvelle technique d'estimation de mouvement 2D temps réel, qui combine les mesures visuelles et inertielles. L'approche introduite se base sur le RANSAC préemptif, en l'étendant via l'ajout de capteurs inertiels. L'évaluation des modèles de mouvement se fait selon un score hybride, un lagrangien dynamique permettant une adaptation à différentes conditions et types de mouvements. Ces améliorations sont effectuées à faible coût, afin de permettre une implémentation sur plateforme embarquée. L'approche est comparée aux méthodes visuelles et inertielles. Une nouvelle méthode d'odométrie visuelle-inertielle temps réelle est présentée. L'interaction entre les données visuelles et inertielles est maximisée en effectuant la fusion dans de multiples étapes de l'algorithme. A travers des tests conduits sur des séquences acquises avec la vérité terrain, nous montrons que notre approche produit des résultats supérieurs aux techniques classiques de l'état de l'art
This thesis deals with sensor fusion between camera and inertial sensors measurements in order to provide a robust motion estimation algorithm for embedded video applications. The targeted platforms are mainly smartphones and tablets. We present a real-time, 2D online camera motion estimation algorithm combining inertial and visual measurements. The proposed algorithm extends the preemptive RANSAC motion estimation procedure with inertial sensors data, introducing a dynamic lagrangian hybrid scoring of the motion models, to make the approach adaptive to various image and motion contents. All these improvements are made with little computational cost, keeping the complexity of the algorithm low enough for embedded platforms. The approach is compared with pure inertial and pure visual procedures. A novel approach to real-time hybrid monocular visual-inertial odometry for embedded platforms is introduced. The interaction between vision and inertial sensors is maximized by performing fusion at multiple levels of the algorithm. Through tests conducted on sequences with ground-truth data specifically acquired, we show that our method outperforms classical hybrid techniques in ego-motion estimation
24

Dumas, Marc-André. "Application du calcul d'incidence à la fusion de données." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23759/23759.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Rahier, Thibaud. "Réseaux Bayésiens pour fusion de données statiques et temporelles." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM083/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prédiction et l'inférence sur des données temporelles sont très souvent effectuées en utilisant uniquement les séries temporelles. Nous sommes convaincus que ces tâches pourraient tirer parti de l'utilisation des métadonnées contextuelles associées aux séries temporelles, telles que l'emplacement, le type, etc. Réciproquement, les tâches de prédiction et d'inférence sur les métadonnées pourraient bénéficier des informations contenues dans les séries temporelles. Cependant, il n'existe pas de méthode standard pour modéliser conjointement les données de séries temporelles et les métadonnées descriptives. De plus, les métadonnées contiennent fréquemment des informations hautement corrélées ou redondantes et peuvent contenir des erreurs et des valeurs manquantes.Nous examinons d’abord le problème de l’apprentissage de la structure graphique probabiliste inhérente aux métadonnées en tant que réseau Bayésien. Ceci présente deux avantages principaux: (i) une fois structurées en tant que modèle graphique, les métadonnées sont plus faciles à utiliser pour améliorer les tâches sur les données temporelles et (ii) le modèle appris permet des tâches d'inférence sur les métadonnées uniquement, telles que l'imputation de données manquantes. Cependant, l'apprentissage de la structure de réseau Bayésien est un défi mathématique conséquent, impliquant un problème d'optimisation NP-difficile. Pour faire face à ce problème, nous présentons un algorithme d'apprentissage de structure sur mesure, inspiré de nouveaux résultats théoriques, qui exploite les dépendances (quasi)-déterministes généralement présentes dans les métadonnées descriptives. Cet algorithme est testé sur de nombreux jeux de données de référence et sur certains jeux de métadonnées industriels contenant des relations déterministes. Dans les deux cas, il s'est avéré nettement plus rapide que l'état de la l'art, et a même trouvé des structures plus performantes sur des données industrielles. De plus, les réseaux Bayésiens appris sont toujours plus parcimonieux et donc plus lisibles.Nous nous intéressons ensuite à la conception d'un modèle qui inclut à la fois des (méta)données statiques et des données temporelles. En nous inspirant des modèles graphiques probabilistes pour les données temporelles (réseaux Bayésiens dynamiques) et de notre approche pour la modélisation des métadonnées, nous présentons une méthodologie générale pour modéliser conjointement les métadonnées et les données temporelles sous forme de réseaux Bayésiens hybrides statiques-dynamiques. Nous proposons deux algorithmes principaux associés à cette représentation: (i) un algorithme d'apprentissage qui, bien qu'optimisé pour les données industrielles, reste généralisable à toute tâche de fusion de données statiques et dynamiques, et (ii) un algorithme d'inférence permettant les d'effectuer à la fois des requêtes sur des données temporelles ou statiques uniquement, et des requêtes utilisant ces deux types de données.%Nous fournissons ensuite des résultats sur diverses applications inter-domaines telles que les prévisions, le réapprovisionnement en métadonnées à partir de séries chronologiques et l’analyse de dépendance d’alarmes en utilisant les données de certains cas d’utilisation difficiles de Schneider Electric.Enfin, nous approfondissons certaines des notions introduites au cours de la thèse, et notamment la façon de mesurer la performance en généralisation d’un réseau Bayésien par un score inspiré de la procédure de validation croisée provenant de l’apprentissage automatique supervisé. Nous proposons également des extensions diverses aux algorithmes et aux résultats théoriques présentés dans les chapitres précédents, et formulons quelques perspectives de recherche
Prediction and inference on temporal data is very frequently performed using timeseries data alone. We believe that these tasks could benefit from leveraging the contextual metadata associated to timeseries - such as location, type, etc. Conversely, tasks involving prediction and inference on metadata could benefit from information held within timeseries. However, there exists no standard way of jointly modeling both timeseries data and descriptive metadata. Moreover, metadata frequently contains highly correlated or redundant information, and may contain errors and missing values.We first consider the problem of learning the inherent probabilistic graphical structure of metadata as a Bayesian Network. This has two main benefits: (i) once structured as a graphical model, metadata is easier to use in order to improve tasks on temporal data and (ii) the learned model enables inference tasks on metadata alone, such as missing data imputation. However, Bayesian network structure learning is a tremendous mathematical challenge, that involves a NP-Hard optimization problem. We present a tailor-made structure learning algorithm, inspired from novel theoretical results, that exploits (quasi)-determinist dependencies that are typically present in descriptive metadata. This algorithm is tested on numerous benchmark datasets and some industrial metadatasets containing deterministic relationships. In both cases it proved to be significantly faster than state of the art, and even found more performant structures on industrial data. Moreover, learned Bayesian networks are consistently sparser and therefore more readable.We then focus on designing a model that includes both static (meta)data and dynamic data. Taking inspiration from state of the art probabilistic graphical models for temporal data (Dynamic Bayesian Networks) and from our previously described approach for metadata modeling, we present a general methodology to jointly model metadata and temporal data as a hybrid static-dynamic Bayesian network. We propose two main algorithms associated to this representation: (i) a learning algorithm, which while being optimized for industrial data, is still generalizable to any task of static and dynamic data fusion, and (ii) an inference algorithm, enabling both usual tasks on temporal or static data alone, and tasks using the two types of data.%We then provide results on diverse cross-field applications such as forecasting, metadata replenishment from timeseries and alarms dependency analysis using data from some of Schneider Electric’s challenging use-cases.Finally, we discuss some of the notions introduced during the thesis, including ways to measure the generalization performance of a Bayesian network by a score inspired from the cross-validation procedure from supervised machine learning. We also propose various extensions to the algorithms and theoretical results presented in the previous chapters, and formulate some research perspectives
26

Makhoul, Abdallah. "Réseaux de capteurs : localisation, couverture et fusion de données." Besançon, 2008. http://www.theses.fr/2008BESA2025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les recherches présentées dans ce mémoire s'inscrivent dans le cadre des réseaux de capteurs. Elles portent sur l'étude et la mise en oeuvre d'algorithmes distribués pour différentes problématiques dans les réseaux de capteurs (localisation, couverture, fusion de données, etc. ). La localisation sert à trouver les positions des nœuds suite à un déploiement aléatoire. Elle est nécessaire pour pouvoir localiser les évènements. Dans ce mémoire, nous introduisons une nouvelle approche de localisation fondée sur l'utilisation d'une ancre mobile. La nouveauté de notre approche réside dans la définition d'une trajectoire prédéfinie couplée à un algorithme de très faible complexité. Dans un second lieu, nous exploitons l'utilisation de l'ancre mobile pour pouvoir ordonner les nœuds dans des ensembles d'activation disjoints, de telle sorte qu'ils puissent économiser leur énergie tout en observant correctement leur environnement. Cet ordonnancement d'activation est connu par le problème de couverture. Nous présentons quatre types d'ordonnancement différents. La troisième partie de ce mémoire traite de la problématique de fusion des données. Pour évaluer la moyenne des données mesurées par un ensemble de capteurs en réseau, nous avons conçu un algorithme itératif asynchrone, en adaptant des techniques développées dans le domaine de l'équilibrage de charge. Cet algorithme est entièrement décentralisé et nous avons montré sa convergence, ainsi que sa tolérance à des variations de topologie du réseau. Enfin, toutes les approches proposées ont fait l'objet d'études de performances approfondies au travers de simulation (OMNeT ++) et comparées aux approches existantes dans la littérature
This thesis tackles the problems of localization, coverage and data fusion in randomly deployed sensor networks. First, we introduce a novel approach for node's localization. It is based on a single mobile beacon aware of its positions. Sensor nodes receiving beacon packets will be able to locate themselves. The mobile beacon follows a defined Hilbert curve. On the other hand, we exploit the localization phase to construct sets of active nodes that ensure as much as possible the zone coverage. To optimize the energy consumption, we construct disjoint sets of active nodes such that only one of them is active at any moment, while ensuring at the same time both the network connectivity and the area coverage. We present and study four different scheduling methods. Ln a third step, we study the problem of data fusion in sensor networks in particular the" average consensus" problem. It allows the nodes of a sensor network to track the average of n sensor measurements. To compute the average, we propose an iterative asynchronous algorithm that is robust to the dynamic topology changes and the loss of messages. To show the effectiveness of the proposed algorithms, we conducted series of simulations based on OMNet++
27

Burger, Brice. "Fusion de données audio-visuelles pour l'interaction homme-robot." Phd thesis, Toulouse 3, 2010. http://thesesups.ups-tlse.fr/916/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasitemps réel sur ces plateformes robotiques réelles
In the framework of assistance robotics, this PHD aims at merging two channels of information (visual and aiditive potentially avaible on a robot. The goal is ton complete and/ or conf rm data that an only channel could have supplied in order to perform advanced intatraction which goal is to interpret jointly speech gesture, in particular for the use of spatial references. In this thesis, we first de cribe the speech part of this work which consists in an embedded recognition and interpretation system for continuous speech. Then comes the vision part which is composed of a visual multi-target tracker that tracks, in 3D the head and the two hands of a human in front of the robot, and a second tracker for the head orientation. The outputs of these trackers are used to feed the gesture recognitive system described later. We continue with the description of a module dedicated to the fusion of the data outputs of these information sources in a probailistic framework. Last, we demonstrate the interest and feasibility of such a multimodal interface through some demonstrations on the LAAS-CNRS robots. All the modules described in this thesis are working in quasi-real time on these real robotic platforms
28

Salmeron-Quiroz, Bernardino Benito. "Fusion de données multicapteurs pour la capture de mouvement." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est située dans le contexte des applications de la capture de mouvement humain dont le but est d'inférer la position du corps humain. Les systèmes de capture de mouvement sont des outils "software" et hardware " qui permettent le traitement en temps réel ou en temps différé de données permettant de retrouver le mouvement (position, orientation) d'un objet ou d'un humain dans l'espace. Différents systèmes de capture de mouvement existent sur le marché. Ils diffèrent essentiellement par leur technologie mais nécessitent une adaptation de l'environnement et parfois l'équipement de la personne. Dans cette thèse, on présente un nouveau système de capture de mouvement permettant d'obtenir l'orientation 3D ainsi que l'accélération linéaire d'un mobile à partir des mesures fournies par une minicentrale, développée au sein du CEA-LETI. Cette minicentrale utilise une configuration minimale, à savoir un triaxe magnétomètre et un triaxe accéléromètre. Dans ce travail, on propose différents algorithmes d'estimation de l'attitude et des accélérations recherchées. La rotation est modélisée à l'aide d'un quaternion unitaire. Dans un premier temps, on a considéré le cas d'une seule centrale d'attitude. On s'est intéressé au problème à 6DDL, dont le but est d'estimer l'orientation d'un corps rigide et ses trois accélérations linéaires à partir des mesures fournies par la minicentrale et d'un algorithme d'optimisation. Dans un second temps, on s'est intéressé au cas de la capture de mouvement de chaînes articulées (bras et jambe). A partir d'hypothèses ad-hoc sur les accélérations au niveau des liaisons pivot, on reconstruit le mouvement de la chaîne articulé (orientation) du segment ainsi que l'accélération en des points particuliers du segment. Ces différentes approches ont été validées avec des données simulés et réelles
This thesis deals with motion capture (MoCap) which goal is to acquire the attitude of human's body. In our case, the arm and the leg are considered. The MoCap trackers are made of "software" and "hardware" parts which allow acquisition of the movement of an object or a human in space in real or differed time. Many MoCaps systems still exist, but they require an adaptation of the environment. In this thesis, a low cost, low weight attitude central unit (UCN namely a triaxes magnetometer and a triaxes accelerometer), is used. This attitude central unit has been developed within the CEA-LETI. In this work, we propose different algorithms to estimate the attitude and the linear accelerations of a rigid body. For the rotation parametrization, the unit quaternion is used. Firstly, the estimation of the attitude and the accelerations (6DDL case) from the measurements provided by ACU is done via an optimization technique. The motion capture of articulated chains (arm and leg) is also studied with ad-hoc assumptions on the accelerations in the pivot connections, the orientation of the segments as well as the accelerations in particular points of the segments can be estimated. The different approaches proposed in this work have been evaluated with simulated data and real data
29

Burger, Brice. "Fusion de données audio-visuelles pour l'interaction Homme-Robot." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00494382.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasi-temps réel sur ces plateformes robotiques réelles.
30

Salmeron-Quiroz, Bernardino Benito. "Fusion de données multicapteurs pour la capture de mouvement." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00148577.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est située dans le contexte des applications de la capture de mouvement humain dont le but est d'inférer la position du corps humain. Les systèmes de capture de mouvement sont des outils "software" et hardware " qui permettent le traitement en temps réel ou en temps différé de données permettant de retrouver le mouvement (position, orientation) d'un objet ou d'un humain dans l'espace. Différents systèmes de capture de mouvement existent sur le marché. Ils diffèrent essentiellement par leur technologie mais nécessitent une adaptation de l'environnement et parfois l'équipement de la personne. Dans cette thèse, on présente un nouveau système de capture de mouvement permettant d'obtenir l'orientation 3D ainsi que l'accélération linéaire d'un mobile à partir des mesures fournies par une minicentrale, développée au sein du CEA-LETI. Cette minicentrale utilise une configuration minimale, à savoir un triaxe magnétomètre et un triaxe accéléromètre. Dans ce travail, on propose différents algorithmes d'estimation de l'attitude et des accélérations recherchées. La rotation est modélisée à l'aide d'un quaternion unitaire. Dans un premier temps, on a considéré le cas d'une seule centrale d'attitude. On s'est intéressé au problème à 6DDL, dont le but est d'estimer l'orientation d'un corps rigide et ses trois accélérations linéaires à partir des mesures fournies par la minicentrale et d'un algorithme d'optimisation. Dans un second temps, on s'est intéressé au cas de la capture de mouvement de chaînes articulées (bras et jambe). A partir d'hypothèses ad-hoc sur les accélérations au niveau des liaisons pivot, on reconstruit le mouvement de la chaîne articulé (orientation) du segment ainsi que l'accélération en des points particuliers du segment. Ces différentes approches ont été validées avec des données simulés et réelles.
31

Manzoni, Vieira Fábio. "Fusion de données AIS et radar pour la surveillance maritime." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de la surveillance maritime, les systèmes coopératifs d’identification et de positionnements tels que l’AIS (Automatic Identification System) sont souvent couplés à des systèmes d’observation de navires non coopératifs comme les Radars à Synthèse d’Ouverture (RSO). Dans ce contexte, la fusion des données AIS et Radar peut améliorer la détection de certains navires et d’identifier éventuels scénarii de surveillance. Le premier chapitre introduit les systèmes et détaille la structure des données AIS et Radar ainsi que le traitement du signal utilisé. Le deuxième chapitre présente l’apport potentiel de l’utilisation conjointe des données brutes Radar et AIS pour la détection de navires à l’aide d’un test basé sur le rapport des vraisemblances maximales (test GLRT). Bien que les performances soient encourageantes, la mise en pratique du détecteur en temps-réel semble compliquée. Le troisième chapitre présente une alternative sous-optimale qui explore les données brutes Radar et une carte des positions de bateaux provenant de l’AIS. Contrairement au chapitre deux, en plus de la détection simultanée par l’AIS et radar, les cas où seul l’un des systèmes détecte un objet peuvent maintenant être distinguées. Le problème est formalisé par deux tests d’hypothèses binaires successifs. Le test proposé est moins sensible à la proximité et à la densité des navires qu’un détecteur radar classique. Le quatrième chapitre présente le simulateur développé pour tester les algorithmes sur différents scénarii de surveillance, à savoir un scénario de piraterie sur un navire civil, un transbordement illégal et une navigation dans un environnement dense
In the maritime surveillance domain, cooperative identification and positioning systems such as AIS (Automatic Identification System) are often coupled with non-cooperative systems for ship observation such as Synthetic Aperture Radar (SAR). In this context, the fusion of AIS and Radar data can improve the detection of certain vessels and possible identify some maritime surveillance scenarios. The first chapter introduces both AIS and Radar systems, details the data structure as well as the related signal processing. The second chapter presents the potential contribution of the joint use of raw Radar and AIS data for the detection of vessels using a generalized likelihood ratio test (GLRT). Although the performance is encouraging, in practice the implementation in real-time of the detector seems complicated. As alternative, the third chapter presents a suboptimal detection method that explores Radar raw data and a positioning map of vessels obtained from the AIS system. Differently from chapter two, in addition to the simultaneous detection by both AIS and radar, the cases where only one of the systems detects an object can now be distinguished. The problem is formalized by two successive binary hypotheses test. The results suggests that the proposed detector is less sensitive to the proximity and density of ships than a conventional radar detector. The fourth chapter presents the simulator developed to test the algorithms on different surveillance scenarios, namely a civilian ship piracy scenario, an illegal cargo transhipment and a scenario of navigation in a dense environment
32

Coutand, Frédérique. "Reconstruction d'images en tomographie scintigraphique cardiaque par fusion de données." Phd thesis, Université Paris Sud - Paris XI, 1996. http://pastel.archives-ouvertes.fr/pastel-00730942.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La méthode proposée dans ce manuscrit consiste a utiliser la fusion de données anatomiques pour améliorer la quantification des images reconstruites en tomographie d'émission monophotonique (t.e.m.p.). Les données anatomiques (déduites d'autres modalités) sont utilisées afin d'obtenir une modélisation paramétrique (par des fonctions spline) des organes de la coupe a reconstruire. Dans la pratique, on utilise deux types d'images: premièrement des images en transmission qui servent a obtenir les contours des organes tels que le thorax et les poumons. Deuxièmement, des images en émission qui donnent une prelocalisation de l'activité et une première estimation des contours du ventricule gauche, qui sont améliorés au cours du processus de reconstruction. Le modèle géométrique nous permet de mieux caractériser la formation des données scintigraphiques et ainsi d'améliorer le problème direct. Les principales originalités de ces travaux consistent a restreindre le champ de la reconstruction uniquement aux régions actives et d'utiliser un maillage adapte aux contours des régions a reconstruire (pour éviter des erreurs de volume partiel). La réduction du nombre d'inconnus permet de mieux conditionner le problème inverse et ainsi de réduire le nombre de projections nécessaires à la reconstruction. La méthode de reconstruction qui est proposée repose sur une double estimation ; estimation de la distribution de radioactivité a l'intérieur de notre modèle géométrique, et estimation des paramètres optimaux de ce modèle. les reconstructions 2D à partir de données simulées puis enregistrées sur fantôme, ont permis de valider le principe de la méthode et montrent une nette amélioration de la quantification des images scintigraphiques
33

Pannetier, Benjamin. "Fusion de données pour la surveillance du champ de bataille." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00377247.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de la surveiIlance du champ de bataille, la poursuite de cibles terrestres est un point crucial pour évaluer le comportement des forces présentent sur le théâtre des opérations. Cette poursuite peut être menée à partir des capteurs aéroportés GMTI (Ground Moving Target Indicator) qui détectent tous les objets en mouvement. Toutefois, les techniques classiques de trajectographie ne permettent pas d'établir une situation fiable de la scène. Cependant, avec le développement et la fiabilité des systèmes d'information géographique, il devient possible de fusionner les données GMTI avec toute l'information contextuelJe pour améliorer le pistage. Le travail présenté dans cette thèse s'intéresse à l'intégration de l'information cartographique dans les techniques usueIJes de trajectographie. Le réseau routier est alors considéré comme une contrainte et un algorithme IMM à structure variable, pour s'adapter à la topologie du réseau, est présenté et testé sur données simulées. L'algorithme prend en entrée la position des plots MTI mais aussi la vitesse radiale des plots. Lorsque cette dernière est éloignée statistiquement de la vitesse radiale prédite, le système risque de ne pas associer le plot à la piste et de perdre cette dernière. Dans ce cas, un facteur d'oubli momentané est utilisé afin d'éviter la perte de la piste. De plus, la problématique des entrées et sorties de route pour le pi stage d'objets d'intérêts est traitée en activant ou désactivant les modèles dynamiques sous contraintes. Par ailleurs, nous proposons une approche pour considérer l'information négative (i.e. absence de détection) suivant la nature du terrain et améliorer la continuité du pi stage
34

Valade, Aurelien. "Capteurs intelligents : quelles méthodologies pour la fusion de données embarquées ?" Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Fruit d’un travail collaboratif entre le LAAS-CNRS de Toulouse et l’entreprise MEAS-France / TE Connectivity, ces travaux ont consisté en la mise en place d’une méthodologie permettant la réalisation de capteurs embarqués intelligents utilisant la fusion de données multi-physique pour estimer un paramètre en amoindrissant l’impact des variations environnementales.Nous explorons ici les méthodes liées à la modélisation et l’estimation de paramètres au travers des filtres de Kalman, pour les systèmes linéaires, et des filtres de Kalman étendus (EKF) et Unscented Kalman Filter pour les systèmes non-linéaires. Nous proposons ensuite des méthodes hybrides permettant d’obtenir le meilleur rapport charge de calculs/précision pour les systèmes présentant une évolution linéaire et une mesure non-linéaire.Après une étude de la complexité algorithmique des différentes solutions, nous proposons des méthodes permettant de diminuer la charge de calculs afin de satisfaire les contraintes temps-réel avec une faible puissance de calculs, telles que trouvées couramment dans les applications embarquées. La méthode développée est finalement appliquée sur deux cas applicatifs concrets : le capteur de qualité d’urée de la société MEAS-France/TE Connectivity et le capteur d’analyse du mouvement AREM développés au cours de la thèse au sein du LAAS-CNRS
The work detailed in this document is the result of a collaborative effort of the LAAS-CNRS in Toulouse and MEAS-France / TE Connectivity during a period of three years.The goal here is to develop a methodology to design smart embedded sensors with the ability to estimate physical parameters based on multi-physical data fusion. This strategy tends to integrate sensors technologies, currently dedicated to lab measurements, in low powered embedded systems working in imperfects environments. After exploring model oriented methods, parameters estimations and Kalman filters, we detail various existing solutions upon which we can build a valid response to multi-physical data fusion problematics, for linear systems with the Kalman Filter, and for non-linear systems with the Extended Kalman Filter and the Unscented Kalman Filter.Then, we will synthesize a filter for hybrid systems, having a linear evolution model and a non-linear measurement model. For example, using the best of the two worlds in order to obtain the best complexity/precision ratio. Once we selected the estimation method, we detail computing power and algorithm complexity problematics in order to find available optimizations we can use to assess the usability of our system in a low power environment. Then we present the developed methodology application to the UQS sensor, sold by TE Connectivity, study case. This sensor uses near infra-red spectroscopy to determine the urea concentration in a urea/water solution, in order to control the nitrogen-oxyde depolluting process in gasoline engines. After a design principles presentation, we detail the model we created in order to represent the system, to simulate its behavior and to combine the measurement data to extract the desired concentration. During this step, we focus on the obstacles of our model calibration and the deviation compensation, due toworking conditions or to components aging process. Based on this development, we finally designed the hybrid models addressing the nominal working cases and the model re-calibration during the working duration of the product. After this, we presented obtained results, on simulated data, and on real-world measured data. Finally, we enhanced the methodology based on tabulated “black box” models which are easier to calibrate and cheaper to process. In conclusion, we reapplied our methodology to a different motion capture sensor, to compile all possible solutions and limits
35

El, Zoghby Nicole. "Fusion distribuée de données échangées dans un réseau de véhicules." Phd thesis, Université de Technologie de Compiègne, 2014. http://tel.archives-ouvertes.fr/tel-01070896.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'étude des techniques de fusion de données réparties et incertaines au sein d'un réseau de véhicules pour gérer la confiance dans les autres véhicules ou dans les données reçues. L'algorithme de fusion distribuée proposé est basé sur les fonctions de croyance et est appliqué par chaque nœud à la réception des messages. In se base sur la gestion d'une connaissance directe, locale à chaque nœud et d'une connaissance distribuée diffusée dans le réseau. Cette dernière résulte de la fusion des messages par un opérateur adapté prenant en compte les cycles éventuels et limitant l'effet de "data incest". Chaque nœud peut être autonome pour estimer la confiance mais la coopération entre les véhicules permet d'améliorer et de rendre plus robuste cette estimation. L'algorithme peut être adapté au cas d'étude en considérant un ou plusieurs éléments d'observation et en prenant en compte l'obsolescence des données. Lorsqu'il y a plusieurs éléments d'observation, se pose le problème de l'association de données nécessaire avant l'étape de combinaison. Un nouvel algorithme d'association a été formalisé dans le cadre des fonctions de croyance. Il a été démontré que ce problème est équivalent à un problème d'affectation linéaire, qui peut être résolu en temps polynomial. Cette solution est à la fois optimale et beaucoup plus efficace que d'autres approches développées dans ce formalisme. La gestion de la confiance dans les nœuds et dans les données échangées ont été illustrées par la mise en œuvre de deux applications : la détection de faux nœuds dans une attaque Sybil et la gestion de la confiance dans les cartes dynamiques pour la perception augmentée.
36

Paoli, Jean-Noël. "Fusion de données spatialisées, application à la viticulture de précision." Montpellier, ENSA, 2004. https://hal-agrosup-dijon.archives-ouvertes.fr/tel-01997479.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gestion de données spatiales a pris une importance considérable dans de nombreux domaines de l'Agriculture ou de l'Environnement. Ces informations permettent notamment d'envisager la prise en compte de la variabilité spatiale et temporelle d'une culture. Cela implique cependant de fusionner les informations disponibles de manière à effectuer un diagnostic et à proposer des actions adaptées. Les principales difficultés sont la très grande diversité des informations disponibles (numériques ou symboliques, de résolutions spatiales différentes), et les imprécisions et incertitudes associées aux données et à leur localisation. Face à cette problématique, nous proposons une méthode permettant de nous ramener systématiquement à un référentiel qualitatif, et de superposer les différentes informations disponibles au niveau spatial, tout en prenant en compte les imprécisions, les incertitudes, les conflits, et les absences éventuelles d'information. Nous mettons en œuvre une approche nouvelle tant pour la description des informations disponibles que pour leur utilisation. Cette approche utilise la théorie des sous ensembles flous et la théorie des possibilités pour décrire les informations disponibles. La superposition des données au niveau spatial met en œuvre un opérateur d'agrégation basé sur une intégrale de Choquet. Cette approche est appliquée à des données de Viticulture de Précision. Le premier exemple s'intéresse à la sélection de zones de requête imprécises par un utilisateur, et au diagnostic de ces zones. Le second décrit comment générer une carte identifiant les zones à traiter selon deux modalités distinctes. Ce travail conclue à la validité de l'approche proposée, et identifie certaines limites. L'opérateur d'agrégation proposé constitue une base de raisonnement, mais pourra évoluer pour prendre en compte l'ensemble des particularités liées au traitement des données spatiales
During the last decade, spatial knowledge management has become increasingly popular in Agriculture and the Environment. These data can be used to consider the spatial and temporal variability of a culture. Nevertheless, this involves the aggregation of all the available data in order to produce a diagnostic and to propose suitable actions. The main problems are the heterogeneity of the different data sets (numeric or symbolic, with different spatial resolutions), and the imprecision and the uncertainty associated with the data and their locations. To overcome these problems, we propose a method to translate all the data into qualitative data and to estimate all the studied variables on the suitable locations. Our method takes into account imprecision, uncertainty, conflicts, and lack of information. We implement a new approach both for the description and for the treatment of the data. The description of the information is based on fuzzy sets and possibility theory. The spatial estimation process is based on a Choquet integral. Our approach is applied on Precision Viticulture data. Our first application is the diagnostic of expert zones manually delineated by experts. Our second application is a field segmentation in order to perform distinct levels of treatment. These examples shows that our approach is valid. Nevertheless, we identify some limitations. Further work is needed to improve our aggregation operator and to consider all the particular aspects of spatial data treatment
37

Ricquebourg, Vincent. "Fusion de données crédibilistes dans le cadre de l'intelligence ambiante." Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/79b899ff-3a94-4816-9d5e-50754ef406c4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le récent concept d’habitat communicant se propose de fournir une offre de services dits contextualisés à l’habitant. Ce nouveau type de « maison intelligente » se base sur l’interprétation de données sensorielles afin de déduire des actions appropriées à réaliser. La première problématique que nous traitons concerne la forte hétérogénéité issue du domaine des capteurs : ceux-ci possèdent leurs propres particularités matérielles, logicielles, et les normes de communications sont faiblement standardisées. Dans cette thèse, nous nous intéressons à la modélisation du contexte, en élaborant une architecture logicielle orientée services combinant des capteurs complémentaires et/ou redondants. Pour pallier la nature incertaine des ces ensembles d’informations et pour les combiner, nous employons le Modèle des Croyances Transférables (MCT). La fiabilité des données capteurs est également prise en compte au sein du processus de fusion : il nous permet de pondérer l’influence d’un capteur défaillant, qui pourrait empêcher la construction de données contextuelles. Cette fiabilité est estimée à partir de la fusion des données deux à deux des capteurs composant le réseau de perception. Une analyse temporelle des conflits issus des différentes fusions nous aide à détecter et à identifier le capteur en cause. Nous proposons également une seconde approche, consistant à détecter des dérives temporelles de comportement. A partir d’un modèle de comportement connu au préalable, nous réalisons la fusion entre un état symbolique prédit et l’état observé par le capteur étudié. L’analyse temporelle du conflit issu de cette fusion permet de détecter des dérives comportementales. Nous proposons enfin un cas d’application mettant en cascade les approches présentées dans le cadre de la surveillance de l’activité humaine, en traitant le cas concret de la détection de la chute d’une personne
The Smart Home concept aims at providing contextualized services to its inhabitants. Based on a heterogeneous sensors domestic network, this new kind of Smart Home deduces the most adapted action to realize with sensory data interpretation. The first problem concerns the strong heterogeneity in the sensor domain: sensors have their own hardware and software features, and their communication standards are poorly standardised. In this thesis, our interest is the context modelling and we propose a service oriented software architecture combining complementary and/or redundant sensors. We use the Transferable Belief Model (TBM) to merge sensor data and to take into account the uncertain nature of information. This model is a variant of the Dempster-Shafer theory. The sensors reliability is taken into account during the merging process to weight a failing sensor. A sensor failure can prevent context data building. The sensor reliability is estimated with a pairwise sensor fusion. The temporal conflict analysis allows detection and identification of a failing sensor. We present a second method aiming at detecting temporal behaviour drift. A TBM fusion between a predicted symbolic state and the observed symbolic state provided by the sensor is achieved. The predicted symbolic state estimation is based on a known model of behaviour. The temporal conflict analysis allows detecting behaviour drifts. Finally, we present a case study where the previous approaches are implemented in cascade in order to detect a falling person
38

Lachaize, Marie. "Fusion de données : approche evidentielle pour le tri des déchets." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le tri automatique des déchets est un sujetcomplexe en raison de la diversité des objets et desmatériaux présents. Il nécessite un apport de donnéesvariées et hétérogènes. Cette thèse traite du problème defusion de données découlant d’un dispositif de troiscapteurs dont une caméra hyperspectrale dans ledomaine NIR. Nous avons étudié l’avantage d’utiliser lecadre des fonctions de croyance (BFT) tout au long de ladémarche de fusion en utilisant notamment la mesure deconflit comme un critère clé de notre approche. Dans unepremière partie, nous avons étudié l'intérêt de la BFTpour la classification multiclasse des donnéeshyperspectrales à partir d’Error Correcting OutputCodes (ECOC) qui consistent à séparer le problèmemulticlasse en un ensemble de sous-problèmes binairesplus simples à résoudre. Les questions de commentidéalement séparer le problème multiclasse (codage)ainsi que celle de la combinaison des réponses de cesproblèmes binaires (décodage) sont encore aujourd’huides questions ouvertes. Le cadre des fonctions decroyance permet de proposer une étape de décodage quimodélise chaque classifieur binaire comme une sourceindividuelle d'information grâce notamment à lamanipulation des hypothèses composées. Par ailleurs laBFT fournit des indices pour détecter les décisions peufiables ce qui permet une auto-évaluation de la méthoderéalisée sans vérité terrain. Dans une deuxième partietraitant de la fusion de données, nous proposons unedémarche ‘orientée-objet’ composée d’un module desegmentation et d’un module de classification afin defaire face aux problèmes d’échelle, de différences derésolutions et de recalage des capteurs. L’objectif estalors d’estimer une segmentation où les segmentscoïncident avec les objets individuels et sont labellisés entermes de matériau. Nous proposons une interactionentre les modules à base de validation mutuelle. Ainsi,d’une part la fiabilité de la labellisation est évaluée auniveau des segments, d’autre part l’information declassification interagit sur les segments initiaux pour serapprocher d’une segmentation au niveau « objet » : leconsensus (ou l’absence de consensus) parmi lesinformations de classification au sein d’un segment ouentre segments connexes permet de faire évoluer lesupport spatial vers le niveau objet
Automatic waste sorting is a complex matterbecause of the diversity of the objects and of the presentmaterials. It requires input from various andheterogeneous data. This PhD work deals with the datafusion problem derived from an acquisition devicecomposed of three sensors, including an hyperspectralsensor in the NIR field. We first studied the benefit ofusing the belief function theory framework (BFT)throughout the fusion approach, using in particularconflict measures to drive the process. We first studiedthe BFT in the multiclass classification problem createdby hyperspectral data. We used the Error CorrectingOutput Codes (ECOC) framework which consists inseparating the multiclass problem into several binaryones, simpler to solve. The questions of the idealdecomposition of the multiclass problem (coding) and ofthe answer combination coming from the binaryclassifiers (decoding) are still open-ended questions. Thebelief function framework allows us to propose adecoding step modelling each binary classifier as anindividual source of information, thanks to the possibilityof handling compound hypotheses. Besides, the BFTprovides indices to detect non reliable decisions whichallow for an auto-evaluation of the method performedwithout using any ground truth. In a second part dealingwith the data fusion,we propose an evidential version ofan object-based approach composed with a segmentationmodule and a classification module in order to tackle theproblems of the differences in scale, resolutions orregistrations of the sensors. The objective is then toestimate a relevant spatial support corresponding to theobjects while labelling them in terms of material. Weproposed an interactive approach with cooperationbetween the two modules in a cross-validation kind ofway. This way, the reliability of the labelling isevaluated at the segment level, while the classificationinformation acts on the initial segments in order toevolve towards an object level segmentation: consensusamong the classification information within a segment orbetween adjacent regions allow the spatial support toprogressively reach object level
39

Bakillah, Mohamed. "Développement d'une approche géosémantique intégrée pour ajuster les résultats des requêtes spatiotemporelles dans les bases de données géospatiales multidimensionnelles évolutives." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24136/24136.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine forestier, la gestion des ressources naturelles se base sur les données recueillies lors des inventaires portant sur la représentation spatiale d’un même territoire à différentes époques. Au fil des inventaires, l’évolution naturelle, les interventions humaines, l’évolution des modes d’acquisition, des spécifications et des normes forestières créent une hétérogénéité spatiale et sémantique entre les différentes bases de données. Dans un processus décisionnel, ces données et spécifications sont structurées d’une façon multidimensionnelle dans des cubes de données géospatiales. Par conséquent, la structure multidimensionnelle est également amenée à évoluer, ce qui affecte la réponse aux requêtes spatiotemporelles. Dans le domaine forestier, la problématique de l’évolution de structure se traduit par l’impossibilité d’effectuer des analyses spatiotemporelles, par exemple sur l’évolution du volume de bois de certaines essences ou l’évolution des épidémies, affectant directement la prise de décision dans la gestion forestière. Cette problématique exige de concevoir de nouvelles solutions capables de préserver les liens entre les membres des différentes structures. Cependant, les solutions proposées ne tiennent pas compte de manière explicite et simultanée de l’évolution sémantique et géométrique de la structure. Afin d’apporter une solution plus adaptée aux réalités des phénomènes spatiotemporels, nous avons développé une approche géosémantique intégrée pour la gestion de l’évolution de la structure du cube afin d’ajuster la qualité de la réponse à la requête spatiotemporelle et ainsi offrir un meilleur support à la prise de décision. L’approche proposée définit une méthode de rétablissement des liens entre des versions du cube. Sur le plan sémantique, nous rétablissons les liens en employant une fonction de similarité sémantique basée sur l’ontologie et qui tient compte du plus fin niveau de définition des concepts. Au niveau géométrique, notre approche se base sur une méthode d’indexation QuadTree pour constituer une matrice de correspondances spatiales entre les géométries des différentes époques. Les liens résultants sont intégrés dans une méthode de transformation matricielle afin de pouvoir répondre d’une manière plus adaptée à des requêtes spatiotemporelles.
40

Ouattara, Mamadou. "Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27723/27723.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle »
In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tools
41

Lévesque, Marie-Andrée. "Approche formelle pour une meilleure identification et gestion des risques d'usages inappropriés des données géodécisionnelles." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25565/25565.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’utilisation croissante de l’information géographique a soulevé d’importantes inquiétudes au cours de la dernière décennie quant aux risques d’usages inappropriés des données géospatiales, particulièrement par des usagers profanes ou non experts en référence spatiale. Ces inquiétudes ont récemment augmenté avec l’arrivée de nouvelles technologies simples et rapides, dont la nouvelle catégorie d’outils d’aide à la décision dénommée SOLAP (Spatial On-Line Analytical Processing). En effet, les nouvelles capacités d’analyse offertes par ces outils ouvrent la porte à un plus grand nombre d’utilisateurs qui peuvent potentiellement ne pas tenir compte adéquatement des forces, faiblesses et qualités inhérentes aux données analysées. En réponse à cette problématique, ce projet de maîtrise propose une approche générique, prenant en compte les obligations juridiques des fournisseurs de données, permettant d’identifier et de gérer des risques d’usages inappropriés des données géodécisionnelles utilisées par les applications SOLAP. Les principes énoncés pourraient éventuellement être transposés aux systèmes non décisionnels (SIG).
Inscrite au Tableau d'honneur de la Faculté des études supérieures
42

Ben, Ticha Mohamed Bassam. "Fusion de données satellitaires pour la cartographie du potentiel éolien offshore." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://tel.archives-ouvertes.fr/tel-00198912.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'énergie éolienne est une des composantes d'une politique énergétique permettant de réaliser un développement durable. Ces dernières années, des parcs éoliens offshore ont été installés. Ces parcs bénéficient d'un vent plus fort et plus régulier en mer que sur terre. Pour un choix judicieux des lieux d'implantation des parcs éoliens, il est nécessaire de disposer d'une cartographie du potentiel éolien. Ces cartes doivent être à haute résolution spatiale pour détecter les variations du potentiel à l'échelle d'un parc éolien. La cartographie du potentiel éolien se fait au travers de la description de la variation spatiale des paramètres statistiques caractérisant la climatologie du vent. Pour une estimation précise de ces paramètres statistiques, il est nécessaire d'avoir des mesures de vitesse et de direction du vent à haute résolution temporelle. Cependant, aucune source de données, actuelle, n'allie la haute résolution spatiale et la haute résolution temporelle. On propose une méthode de fusion de données permettant de tirer profit de la haute résolution spatiale de certains instruments de télédétection (les radars à ouverture synthétiques) et de la haute résolution temporelle d'autres instruments de télédétection (les radars diffusomètres). La méthode de fusion est appliquée à un cas d'étude et les résultats sont évalués. Les résultats montrent la pertinence de la fusion de données pour la cartographie du potentiel éolien offshore.
43

Scandaroli, Glauco Garcia. "Fusion de données visuo-inertielles pour l'estimation de pose et l'autocalibrage." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00861858.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes multi-capteurs exploitent les complémentarités des différentes sources sensorielles. Par exemple, le capteur visuo-inertiel permet d'estimer la pose à haute fréquence et avec une grande précision. Les méthodes de vision mesurent la pose à basse fréquence mais limitent la dérive causée par l'intégration des données inertielles. Les centrales inertielles mesurent des incréments du déplacement à haute fréquence, ce que permet d'initialiser la vision et de compenser la perte momentanée de celle-ci. Cette thèse analyse deux aspects du problème. Premièrement, nous étudions les méthodes visuelles directes pour l'estimation de pose, et proposons une nouvelle technique basée sur la corrélation entre des images et la pondération des régions et des pixels, avec une optimisation inspirée de la méthode de Newton. Notre technique estime la pose même en présence des changements d'illumination extrêmes. Deuxièmement, nous étudions la fusion des données a partir de la théorie de la commande. Nos résultats principaux concernent le développement d'observateurs pour l'estimation de pose, biais IMU et l'autocalibrage. Nous analysons la dynamique de rotation d'un point de vue non linéaire, et fournissons des observateurs stables dans le groupe des matrices de rotation. Par ailleurs, nous analysons la dynamique de translation en tant que système linéaire variant dans le temps, et proposons des conditions d'observabilité uniforme. Les analyses d'observabilité nous permettent de démontrer la stabilité uniforme des observateurs proposés. La méthode visuelle et les observateurs sont testés et comparés aux méthodes classiques avec des simulations et de vraies données visuo-inertielles.
44

Fournier, Marc. "Fusion de données 3D provenant d'un profilomètre tenu à la main." Mémoire, École de technologie supérieure, 2002. http://espace.etsmtl.ca/825/1/FOURNIER_Marc.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire a été réalisé en collaboration avec l'INO (Institut National d'Optique à Québec). L'INO a développé un appareil portatif de numérisation trois dimensions (3D) par triangulation active, opérable par balayage à la main. Les données fournies par le capteur sont sous forme de nuages de points 3D qui sont préalablement traités pour obtenir plusieurs surfaces dans l'espace 3D. Plusieurs balayages sont nécessaires pour numériser un objet entier. Chaque surface partielle de l'objet représentée par un modèle polygonal triangulaire explicite est transformée dans un domaine de représentation implicite appelé la fonction de champ scalaire 3D. Toutes les fonctions de champ individuelles sont intégrées en une seule fonction de champ globale qui représente la fusion des surfaces en une seule représentation implicite de l'objet. Une triangulation explicite est appliquée sur la fonction de champ globale pour revenir à une surface polygonale unique dans l'espace 3D qui représente l'ensemble de l'objet numérisé.
45

Glauco, Garcia Scandaroli. "Fusion de données visuo-inertielles pour l'estimation de pose et l'autocalibrage." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00849384.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes multi-capteurs exploitent les complémentarités des différentes sources sensorielles. Par example, le capteur visuo-inertiel permet d'estimer la pose à haute fréquence et avec une grande précision. Les méthodes de vision mesurent la pose à basse fréquence mais limitent la dérive causée par l'intégration des données inertielles. Les centrales inertielles mesurent des incréments du déplacement à haute fréquence, ce que permet d'initialiser la vision et de compenser la perte momentanée de celle-ci. Cette thèse analyse deux aspects du problème. Premièrement, nous étudions les méthodes visuelles directes pour l'estimation de pose, et proposons une nouvelle technique basée sur la corrélation entre des images et la pondération des régions et des pixels, avec une optimisation inspirée de la méthode de Newton. Notre technique estime la pose même en présence des changements d'illumination extrêmes. Deuxièmement, nous étudions la fusion des données a partir de la théorie de la commande. Nos résultats principaux concernent le développement d'observateurs pour l'estimation de pose, biais IMU et l'autocalibrage. Nous analysons la dynamique de rotation d'un point de vue nonlinéaire, et fournissons des observateurs stables dans le groupe des matrices de rotation. Par ailleurs, nous analysons la dynamique de translation en tant que système linéaire variant dans le temps, et proposons des conditions d'observabilité uniforme. Les analyses d'observabilité nous permettent de démontrer la stabilité uniforme des observateurs proposés. La méthode visuelle et les observateurs sont testés et comparés aux méthodes classiques avec des simulations et de vraies données visuo-inertielles.
46

Izri-Lahleb, Sonia. "Architecture de fusion de données pour le suivi dynamique de véhicules." Amiens, 2006. http://www.theses.fr/2006AMIE0603.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux réalisés dans ce mémoire traitent la problématique de fusion de données appliquées à la sécurité routière (assistance à la conduite). Cette étude est réalisée à l’aide d’une approche multi-niveaux et notamment basée sur l’exploitation de données complémentaires qui émanent de deux systèmes de perception : un télémètre laser à temps de vol et un capteur de vision omnidirectionnelle. Cette association permet de gérer des données complémentaires et redondantes, offrant la possibilité de bâtir un modèle de l’environnement riche et robuste. Le capteur omnidirectionnel a la particularité de fournir des données sur 360° en une seule acquisition. Le télémètre laser, quant à lui, permet d’obtenir la distance de tout objet se trouvant sur la trajectoire du véhicule équipé avec une très grande précision, de l’ordre du centimètre. La première partie de ces travaux concerne les traitements des données sensorielles issues de la télémétrie laser et de la vision omnidirectionnelle. Nous proposons une méthode d'extraction de primitives de type segment permettant de représenter les amers routiers, suivie d’une méthode de segmentation utilisée pour l’extraction des véhicules, basée sur un modèle déformable de type contour actif. Cette phase s’accompagne d’une deuxième partie qui traite la gestion de quantification des incertitudes sur les primitives du modèle bi-sensoriel en utilisant la théorie de l’évidence de Dempster-Shaffer, permettant de réaliser une fusion plusieurs critères qui caractérisent de façon robuste la croyance accordée à chaque primitive obtenue avec la télémétrie laser et la vision omnidirectionnelle.
47

Arnould, Philippe. "Étude de la localisation d'un robot mobile par fusion de données." Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL095N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentes, dans ce mémoire, concernent l'étude de la localisation d'un véhicule autonome à partir d'informations provenant d'un odomètre et d'un magnétomètre. Le but est d'obtenir des informations de positions et de cap suffisamment fiables et précises pour envisager la navigation du véhicule sur une distance la plus longue possible entre deux recalages par rapport à l'environnement. Afin de tirer partie au mieux des informations disponibles, des techniques de fusion de données multicapteurs ont été élaborées. Elles permettent de s'affranchir de la plupart des défauts intrinsèques à chaque capteur pris individuellement. Deux méthodes ont été étudiées et testées: une méthode de fusion par discrimination de l'orientation où l'on compare en permanence l'incertitude des deux capteurs et une méthode de fusion par filtrage de Kalman. Les résultats obtenus sur des parcours types avec la deuxième méthode notamment montrent que l'erreur de position en fin de parcours est ramenée à 0,5% de la distance parcourue. L'utilisation de telles techniques rend possible la navigation sans recalage sur des distances de quelques dizaines de mètres de 100 mètres suivant la précision requise
48

Phan, Duy Hung. "Fusion de données ECG et mouvements en vue d'un système ambulatoire." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0172.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la respiration et l’activité cardiaque, et à une fusion des informations extraites de la mesure de leurs caractéristiques, pour fournir une aide au diagnostic de l’apnée du sommeil. Notre étude a principalement porté sur la mesure, le traitement et la caractérisation des signaux du cœur et de la respiration, la détection automatique de l’apnée et la validation de la fusion des informations. Notre principal résultat original réside dans le fait que nous avons détecté le signal respiratoire, l’indice de confiance du signal respiratoire, et la fréquence cardiaque instantanée à partir d’enregistrements issus d’un unique accéléromètre appliqué sur le thorax. Ces informations aideront le médecin dans les diagnostics des maladies du rythme du cœur ou de la respiration. Le système ambulatoire final a plusieurs applications potentielles: détection automatique de l'apnée du sommeil par un système simple, système d’alarme et d’aide au diagnostic pour le médecin, télémédecine, etc
The new technologies in electronic and informatics allow us to continually improve medical applications. This thesis is located at the border of the physiological signal processing and the domain of the automatic identification of diseases. We are interested in respiration and cardiac activity, and fusion of information extracted by measuring their characteristics, to provide assistance for the diagnostic of sleep apnea. Our study focused on the measurement, processing and characterization of signals from the heart and respiration, the automatic detection of sleep apnea and comparing strategies specific to each identification model. We began by studying the anatomy, the function and the conventional quantitative measures of the cardio-respiratory system. We have created a simple system to record the electrocardiogram and the respiration at the same time. Next, the signals were checked against reference measurements. We realized the algorithms to select the best parameters and extract the parameters, and to reduce the size of the imput vector. Finally, on the basis of these results, an identification engine for sleep apnea was built. Our original result is that we detect the respiratory signal, the confidence index of respiratory signal, and the heart rate from recordings of single accelerometer applied on chest. This information will help doctors diagnose diseases like arrhythmia or respiratory diseases. The final ambulatory system has several potential applications : automatic detection of sleep apnea, alarm and aid system for doctor's diagnosis, telemedicine,. .
49

Bradai, Benazouz. "Optimisation des Lois de Commande d’Éclairage Automobile par Fusion de Données." Mulhouse, 2007. http://www.theses.fr/2007MULH0863.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conduite nocturne avec un système d’éclairage conventionnel n’est pas suffisamment sécurisante. En effet, si l’on roule beaucoup moins de nuit, plus de la moitié des accidents de la route arrivent pendant cette période. Dans le but de réduire ces accidents du trafic nocturne, le projet européen « Adaptive Front lighting System » (AFS) a été initié. L’objectif pour les constructeurs et équipementiers automobiles est d’aboutir en 2008 à un changement de réglementation de l’éclairage automobile. Pour cela, ils explorent les différents modes de réalisation possible de nouvelles fonctions d’éclairage basées sur la déformation du faisceau lumineux, et étudient la pertinence, l’efficacité par rapport à la situation de conduite, mais aussi les dangers associés à l’utilisation, pour ces fonctions, d’éclairage, d’informations issues du véhicule ou de l’environnement. Depuis 2003, des véhicules proposent d’orienter l’éclairage en virage, cette solution, ne tenant compte que des actions du conducteur sur le volant, permet d’améliorer la visibilité en orientant le faisceau vers l’intérieur du virage. Cependant, le profil de route (intersections, courbure, etc. ) n’étant pas toujours connu du conducteur, les performances liées à cette solution sont dès lors limitées. Or les systèmes embarqués de navigation, d’une part peuvent apporter des informations primordiales sur cette forme, et d’autre part disposent d’informations contextuelles (ouvrages d’art, nature de la route, rayon de virage, limitations de vitesse en vigueur…). Le sujet de cette thèse a pour objectif d’optimiser les lois de commande des systèmes d’éclairage en s’appuyant sur la fusion des informations issues des systèmes de navigation avec celles des capteurs embarqués dans le véhicule (caméras, …), tout en sachant jusqu’à quel point les systèmes actuels et futurs peuvent répondre à ces attentes de manière efficace et fiable. Ainsi, cette fusion des informations, appliquée ici à la prise de décision, permet de définir les situations et les contextes de conduite de l’environnement d’évolution du véhicule (autoroute, ville, etc. ) et de choisir la loi appropriée parmi les différentes lois de commande d’éclairage développées pour répondre aux fonctionnalités recherchées (code autoroute, code ville, code virage). Cette démarche permet de choisir en temps réel, et par anticipation, entre ces différentes lois de commande. Elle permet, par conséquent, l’amélioration de la robustesse du système d’éclairage. Deux points sont à l’origine de cette amélioration. Premièrement, à partir du système de navigation, nous avons développé un capteur virtuel d’horizon glissant événementiel permettant la détermination précise des différentes situations de conduite en utilisant un automate d’états finis. Il permet ainsi de pallier aux problèmes de la nature ponctuelle des informations du système de navigation. Deuxièmement, nous avons développé un capteur virtuel générique de détermination des situations de conduite basé sur la théorie des croyances en utilisant un système de navigation et la vision. Ce capteur combine les confiances en provenance des deux sources pour mieux distinguer les différentes situations et les différents contextes de conduite et de pallier aux problèmes des deux sources prises indépendamment. Il permet également de construire une confiance du système de navigation. Ce capteur générique est généralisable à des systèmes d’aide à la conduite (ADAS) autre que l’éclairage. Ceci a été montré en l’appliquant à un système de détection des limitations de vitesses réglementaires SLS (Speed Limit Support). Les deux capteurs virtuels développés ont été appliqués à l’optimisation de l’éclairage AFS et au système SLS. Ces deux systèmes ont été implémentés sur un véhicule de démonstration et ils sont actuellement opérationnels. Ils ont été évalués par différents types de conducteur allant des non experts aux experts de l’éclairage et des systèmes d’aide à la conduite (ADAS). Ils ont été également montrés auprès des constructeurs automobiles (PSA, Audi, Renault, Honda, etc. ) et au cours de différents « techdays » et ils ont prouvé leur fiabilité lors des démonstrations sur routes ouvertes avec des différentes situations et différents contextes de conduite
Night-time driving with conventional headlamps is particularly unsafe. Indeed, if one drives much less at night, more than half of the driving fatalities occur during this period. To reduce these figures, several automotive manufacturers and suppliers participated to the European project “Adaptive Front lighting System” (AFS). This project has the aim to define new lightings functions based on a beam adaptation to the driving situation. And, it has to end in 2008 with a change of regulation of the automotive lighting allowing so realisation of all new AFS functions. For that, they explore the possible realisation of such new lighting functions, and study the relevance, the efficiency according to the driving situation, but also the dangers associated with the use, for these lighting functions, of information from the vehicle or from the environment. Since 2003, some vehicles are equipped by bending lights, taking account only of actions of the driver on the steering wheel. These solutions make it possible to improve the visibility by directing the beam towards the interior of the bend. However, the road profile (intersections, bends, etc) not being always known for the driver, the performances related to these solutions are consequently limited. However the embedded navigation systems, on the one hand can contain information on this road profile, and on the other hand have contextual information (engineering works, road type, curve radius, speed limits …). The topic of this thesis aims to optimize lighting control laws based on fusion of navigation systems information with those of vehicle embedded sensors (cameras,…), with consideration of their efficiency and reliability. Thus, this information fusion, applied here to the decision-making, makes it possible to define driving situations and contexts of the vehicle evolution environment (motorway, city, etc) and to choose the appropriate law among the various of developed lighting control laws (code motorway lighting, town lighting, bending light). This approach makes it possible to choose in real time, and by anticipation, between these various lighting control laws. It allows, consequently, the improvement of the robustness of the lighting system. Two points are at the origin of this improvement. Firstly, using the navigation system information, we developed a virtual sensor of event-based electronic horizon analysis allowing an accurate determination of various driving situations. It uses a finite state machine. It thus makes it possible to mitigate the problems of the ponctual nature of the navigation system information. Secondly, we developed a generic virtual sensor of driving situations determination based on the evidence theory of using a navigation system and the vision. This sensor combines confidences coming from the two sources for better distinguishing between the various driving situations and contexts and to mitigate the problems of the two sources taken independently. It also allows building a confidence of the navigation system using some of their criteria. This generic sensor is generalizable with other assistance systems (ADAS) that lighting one. This was shown by applying it to a speed limit detection system SLS (Speed Limit Support). The two developed virtual sensors were applied to the optimization of lighting system (AFS) and for the SLS system. These two systems were implemented on an experimental vehicle (demonstration vehicle) and they are currently operational. They were evaluated by various types of driver going from non experts to experts. They were also shown to car manufacturers (PSA, Audi, Renault, Honda, etc. ) and during different techdays. They proved their reliability during these demonstrations on open roads with various driving situations and contexts
50

Gesbert, Jean-Charles. "Modélisation 3D du rachis scoliotique : fusion de données et personnalisation expérimentale." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S051/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux s'inscrivent dans le cadre d'un projet de recherche translationnel visant à améliorer la conception des corsets orthopédiques de traitement de la scoliose par la mise en place, par méthode inverse, d'un modèle biomécanique global, simplifié et personnalisé, propre au tronc de chaque patient scoliotique. Ils constituent la première étape de ce projet, à savoir, développer et mettre en œuvre des techniques, outils et protocoles permettant, d'une part, la construction d'un modèle géométrique 3D de la surface externe et des éléments internes du tronc du patient à partir de radiographies bi-planes issues d'un équipement standard et du système Model Maker (Proteor), et d'autre part, la mesure des pressions exercées par le corset ainsi que leur recalage sur les géométries reconstruites. Des reconstructions géométriques 3D du tronc avec et sans corset ainsi que des mesures de pressions ont été réalisées pour 11 patients. La conception d'un unique dispositif de calibration associé à un protocole spécifique permet l'acquisition des différentes données quasi sans déplacements du patient. Sa facilité de transport, d'installation et son faible coût, associés à un temps d'acquisition ne pénalisant pas le confort du patient, rendent envisageable son utilisation en routine clinique. L'utilisation de modèles géométriques paramétriques, associée à des équations de prédiction des paramètres anatomiques, permet d'obtenir une initialisation rapide des géométries des éléments internes du tronc à partir d'un nombre réduit de points anatomiques à numériser. Les mesures de la pression exercée par le corset, effectuées à l'aide d'un dispositif innovant muni de capteurs entièrement réalisés en fibres textiles lui permettant d'épouser parfaitement les courbes anatomiques, ont mis en avant les variations de correction, non négligeables, qu'entraînent la modification de la position du patient
This thesis is a part of a translational research project to improve scoliosis orthopedic brace design through the use, by inverse method, of a simplified and personalized comprehensive biomechanical model for each scoliotic patient’s trunk. It represents the first step of this project, namely, to develop and to implement methods, tools and protocols allowing, on one hand, 3D reconstruction of the external shape and internal components of patient’s trunk from biplanar X-rays (performed with a standard device) and the Model Maker system (Proteor), and on the other hand, measurements of the pressure infered by the brace and their registration on the reconstructed geometry. 3D modeling of the trunk with and without brace as well as pressure measurement were carried out on 11 patients. The development of a common calibration device associated to a specific protocol allows data acquisition nearly without displacements of the patient. Its ease of transportation, installation and a low cost associated with an acquisition time which not penalize the patient’s comfort make possible its use in clinical routine. The use of parametrics geometrical models associated with prediction equations of anatomical parameters provides fast initialization of the geometries of trunk’s internal elements from a reduced number of anatomical landmarks to digitize. Measurements of the pressure infered by the brace, performed thanks to an innovative device made of pressure-sensitive textile fibers allowing it to perfectly fit anatomical curves, have highlighted significant correction variations according to the patient’s position

To the bibliography