To see the other types of publications on this topic, follow the link: Sensors fusion for localisation.

Dissertations / Theses on the topic 'Sensors fusion for localisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sensors fusion for localisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Millikin, R. L. "Sensor fusion for the localisation of birds in flight." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2002. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ65871.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Welte, Anthony. "Spatio-temporal data fusion for intelligent vehicle localization." Thesis, Compiègne, 2020. http://bibliotheque.utc.fr/EXPLOITATION/doc/IFD/2020COMP2572.

Full text
Abstract:
La localisation précise constitue une brique essentielle permettant aux véhicules de naviguer de manière autonome sur la route. Cela peut être atteint à travers les capteurs déjà existants, de nouvelles technologies (Iidars, caméras intelligentes) et des cartes haute définition. Dans ce travail, l'intérêt d'enregistrer et réutiliser des informations sauvegardées en mémoire est exploré. Les systèmes de localisation doivent permettre une estimation à haute fréquence, des associations de données, de la calibration et de la détection d'erreurs. Une architecture composée de plusieurs couches de traitement est proposée et étudiée. Une couche principale de filtrage estime la pose tandis que les autres couches abordent les problèmes plus complexes. L'estimation d'état haute fréquence repose sur des mesures proprioceptives. La calibration du système est essentielle afin d'obtenir une pose précise. En gardant les états estimés et les observations en mémoire, les modèles d'observation des capteurs peuvent être calibrés à partir des estimations lissées. Les Iidars et les caméras intelligentes fournissent des mesures qui peuvent être utilisées pour la localisation mais soulèvent des problèmes d'association de données. Dans cette thèse, le problème est abordé à travers une fenêtre spatio-temporelle, amenant une image plus détaillée de l'environnement. Le buffer d'états est ajusté avec les observations et toutes les associations possibles. Bien que l'utilisation d'amers cartographiés permette d'améliorer la localisation, cela n'est possible que si la carte est fiable. Une approche utilisant les résidus lissés a posteriori a été développée pour détecter ces changements de carte
Localization is an essential basic capability for vehicles to be able to navigate autonomously on the road. This can be achieved through already available sensors and new technologies (Iidars, smart cameras). These sensors combined with highly accurate maps result in greater accuracy. In this work, the benefits of storing and reusing information in memory (in data buffers) are explored. Localization systems need to perform a high-frequency estimation, map matching, calibration and error detection. A framework composed of several processing layers is proposed and studied. A main filtering layer estimates the vehicle pose while other layers address the more complex problems. High-frequency state estimation relies on proprioceptive measurements combined with GNSS observations. Calibration is essential to obtain an accurate pose. By keeping state estimates and observations in a buffer, the observation models of these sensors can be calibrated. This is achieved using smoothed estimates in place of a ground truth. Lidars and smart cameras provide measurements that can be used for localization but raise matching issues with map features. In this work, the matching problem is addressed on a spatio-temporal window, resulting in a more detailed pictur of the environment. The state buffer is adjusted using the observations and all possible matches. Although using mapped features for localization enables to reach greater accuracy, this is only true if the map can be trusted. An approach using the post smoothing residuals has been developed to detect changes and either mitigate or reject the affected features
APA, Harvard, Vancouver, ISO, and other styles
3

Lilja, Robin. "A Localisation and Navigation System for an Autonomous Wheel Loader." Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-12157.

Full text
Abstract:
Autonomous vehicles are an emerging trend in robotics, seen in a vast range of applications and environments. Consequently, Volvo Construction Equipment endeavour to apply the concept of autonomous vehicles onto one of their main products. In the company’s Autonomous Machine project an autonomous wheel loader is being developed. As an ob jective given by the company; a demonstration proving the possibility of conducting a fully autonomous load and haul cycle should be performed. Conducting such cycle requires the vehicle to be able to localise itself in its task space and navigate accordingly. In this Master’s Thesis, methods of solving those requirements are proposed and evaluated on a real wheel loader. The approach taken regarding localisation, is to apply sensor fusion, by extended Kalman filtering, to the available sensors mounted on the vehicle, including; odometric sensors, a Global Positioning System receiver and an Inertial Measurement Unit. Navigational control is provided through an interface developed, allowing high level software to command the vehicle by specifying drive paths. A path following controller is implemented and evaluated. The main objective was successfully accomplished by integrating the developed localisation and navigational system with the existing system prior this thesis. A discussion of how to continue the development concludes the report; the addition of a continuous vision feedback is proposed as the next logical advancement.
APA, Harvard, Vancouver, ISO, and other styles
4

Matsumoto, Takeshi, and takeshi matsumoto@flinders edu au. "Real-Time Multi-Sensor Localisation and Mapping Algorithms for Mobile Robots." Flinders University. Computer Science, Engineering and Mathematics, 2010. http://catalogue.flinders.edu.au./local/adt/public/adt-SFU20100302.131127.

Full text
Abstract:
A mobile robot system provides a grounded platform for a wide variety of interactive systems to be developed and deployed. The mobility provided by the robot presents unique challenges as it must observe the state of the surroundings while observing the state of itself with respect to the environment. The scope of the discipline includes the mechanical and hardware issues, which limit and direct the capabilities of the software considerations. The systems that are integrated into the mobile robot platform include both specific task oriented and fundamental modules that define the core behaviour of the robot. While the earlier can sometimes be developed separately and integrated at a later stage, the core modules are often custom designed early on to suit the individual robot system depending on the configuration of the mechanical components. This thesis covers the issues encountered and the resolutions that were implemented during the development of a low cost mobile robot platform using off the shelf sensors, with a particular focus on the algorithmic side of the system. The incrementally developed modules target the localisation and mapping aspects by incorporating a number of different sensors to gather the information of the surroundings from different perspectives by simultaneously or sequentially combining the measurements to disambiguate and support each other. Although there is a heavy focus on the image processing techniques, the integration with the other sensors and the characteristics of the platform itself are included in the designs and analyses of the core and interactive modules. A visual odometry technique is implemented for the localisation module, which includes calibration processes, feature tracking, synchronisation between multiple sensors, as well as short and long term landmark identification to calculate the relative pose of the robot in real time. The mapping module considers the interpretation and the representation of sensor readings to simplify and hasten the interactions between multiple sensors, while selecting the appropriate attributes and characteristics to construct a multi-attributed model of the environment. The modules that are developed are applied to realistic indoor scenarios, which are taken into consideration in some of the algorithms to enhance the performance through known constraints. As the performance of algorithms depends significantly on the hardware, the environment, and the number of concurrently running sensors and modules, comparisons are made against various implementations that have been developed throughout the project.
APA, Harvard, Vancouver, ISO, and other styles
5

Khairallah, Mahmoud. "Flow-Based Visual-Inertial Odometry for Neuromorphic Vision Sensors." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST117.

Full text
Abstract:
Plutôt que de générer des images de manière constante et synchrone, les capteurs neuromorphiques de vision -également connus sous le nom de caméras événementielles, permettent à chaque pixel de fournir des informations de manière indépendante et asynchrone chaque fois qu'un changement de luminosité est détecté. Par conséquent, les capteurs de vision neuromorphiques n'ont pas les problèmes des caméras conventionnelles telles que les artefacts d'image et le Flou cinétique. De plus, ils peuvent fournir une compression sans perte de donné avec une résolution temporelle et une plage dynamique plus élevée. Par conséquent, les caméras événmentielles remplacent commodément les caméras conventionelles dans les applications robotiques nécessitant une grande maniabilité et des conditions environnementales variables. Dans cette thèse, nous abordons le problème de l'odométrie visio-inertielle à l'aide de caméras événementielles et d'une centrale inertielle. En exploitant la cohérence des caméras événementielles avec les conditions de constance de la luminosité, nous discutons de la possibilité de construire un système d'odométrie visuelle basé sur l'estimation du flot optique. Nous développons notre approche basée sur l'hypothèse que ces caméras fournissent des informations des contours des objets de la scène et appliquons un algorithme de détection de ligne pour la réduction des données. Le suivi de ligne nous permet de gagner plus de temps pour les calculs et fournit une meilleure représentation de l'environnement que les points d'intérêt. Dans cette thèse, nous ne montrons pas seulement une approche pour l'odométrie visio-inertielle basée sur les événements, mais également des algorithmes qui peuvent être utilisés comme algorithmes des caméras événementielles autonomes ou intégrés dans d'autres approches si nécessaire
Rather than generating images constantly and synchronously, neuromorphic vision sensors -also known as event-based cameras- permit each pixel to provide information independently and asynchronously whenever brightness change is detected. Consequently, neuromorphic vision sensors do not encounter the problems of conventional frame-based cameras like image artifacts and motion blur. Furthermore, they can provide lossless data compression, higher temporal resolution and higher dynamic range. Hence, event-based cameras conveniently replace frame-based cameras in robotic applications requiring high maneuverability and varying environmental conditions. In this thesis, we address the problem of visual-inertial odometry using event-based cameras and an inertial measurement unit. Exploiting the consistency of event-based cameras with the brightness constancy conditions, we discuss the availability of building a visual odometry system based on optical flow estimation. We develop our approach based on the assumption that event-based cameras provide edge-like information about the objects in the scene and apply a line detection algorithm for data reduction. Line tracking allows us to gain more time for computations and provides a better representation of the environment than feature points. In this thesis, we do not only show an approach for event-based visual-inertial odometry but also event-based algorithms that can be used as stand-alone algorithms or integrated into other approaches if needed
APA, Harvard, Vancouver, ISO, and other styles
6

Salehi, Achkan. "Localisation précise d'un véhicule par couplage vision/capteurs embarqués/systèmes d'informations géographiques." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC064/document.

Full text
Abstract:
La fusion entre un ensemble de capteurs et de bases de données dont les erreurs sont indépendantes est aujourd’hui la solution la plus fiable et donc la plus répandue de l’état de l’art au problème de la localisation. Les véhicules semi-autonomes et autonomes actuels, ainsi que les applications de réalité augmentée visant les contextes industriels exploitent des graphes de capteurs et de bases de données de tailles considérables, dont la conception, la calibration et la synchronisation n’est, en plus d’être onéreuse, pas triviale. Il est donc important afin de pouvoir démocratiser ces technologies, d’explorer la possibilité de l’exploitation de capteurs et bases de données bas-coûts et aisément accessibles. Cependant, ces sources d’information sont naturellement plus incertaines, et plusieurs obstacles subsistent à leur utilisation efficace en pratique. De plus, les succès récents mais fulgurants des réseaux profonds dans des tâches variées laissent penser que ces méthodes peuvent représenter une alternative peu coûteuse et efficace à certains modules des systèmes de SLAM actuels. Dans cette thèse, nous nous penchons sur la localisation à grande échelle d’un véhicule dans un repère géoréférencé à partir d’un système bas-coût. Celui-ci repose sur la fusion entre le flux vidéo d’une caméra monoculaire, des modèles 3d non-texturés mais géoréférencés de bâtiments,des modèles d’élévation de terrain et des données en provenance soit d’un GPS bas-coût soit de l’odométrie du véhicule. Nos travaux sont consacrés à la résolution de deux problèmes. Le premier survient lors de la fusion par terme barrière entre le VSLAM et l’information de positionnement fournie par un GPS bas-coût. Cette méthode de fusion est à notre connaissance la plus robuste face aux incertitudes du GPS, mais est plus exigeante en matière de ressources que la fusion via des fonctions de coût linéaires. Nous proposons une optimisation algorithmique de cette méthode reposant sur la définition d’un terme barrière particulier. Le deuxième problème est le problème d’associations entre les primitives représentant la géométrie de la scène(e.g. points 3d) et les modèles 3d des bâtiments. Les travaux précédents se basent sur des critères géométriques simples et sont donc très sensibles aux occultations en milieu urbain. Nous exploitons des réseaux convolutionnels profonds afin d’identifier et d’associer les éléments de la carte correspondants aux façades des bâtiments aux modèles 3d. Bien que nos contributions soient en grande partie indépendantes du système de SLAM sous-jacent, nos expériences sont basées sur l’ajustement de faisceaux contraint basé images-clefs. Les solutions que nous proposons sont évaluées sur des séquences de synthèse ainsi que sur des séquence urbaines réelles sur des distances de plusieurs kilomètres. Ces expériences démontrent des gains importants en performance pour la fusion VSLAM/GPS, et une amélioration considérable de la robustesse aux occultations dans la définition des contraintes
The fusion between sensors and databases whose errors are independant is the most re-liable and therefore most widespread solution to the localization problem. Current autonomousand semi-autonomous vehicles, as well as augmented reality applications targeting industrialcontexts exploit large sensor and database graphs that are difficult and expensive to synchro-nize and calibrate. Thus, the democratization of these technologies requires the exploration ofthe possiblity of exploiting low-cost and easily accessible sensors and databases. These infor-mation sources are naturally tainted by higher uncertainty levels, and many obstacles to theireffective and efficient practical usage persist. Moreover, the recent but dazzling successes ofdeep neural networks in various tasks seem to indicate that they could be a viable and low-costalternative to some components of current SLAM systems.In this thesis, we focused on large-scale localization of a vehicle in a georeferenced co-ordinate frame from a low-cost system, which is based on the fusion between a monocularvideo stream, 3d non-textured but georeferenced building models, terrain elevation models anddata either from a low-cost GPS or from vehicle odometry. Our work targets the resolutionof two problems. The first one is related to the fusion via barrier term optimization of VS-LAM and positioning measurements provided by a low-cost GPS. This method is, to the bestof our knowledge, the most robust against GPS uncertainties, but it is more demanding in termsof computational resources. We propose an algorithmic optimization of that approach basedon the definition of a novel barrier term. The second problem is the data association problembetween the primitives that represent the geometry of the scene (e.g. 3d points) and the 3d buil-ding models. Previous works in that area use simple geometric criteria and are therefore verysensitive to occlusions in urban environments. We exploit deep convolutional neural networksin order to identify and associate elements from the map that correspond to 3d building mo-del façades. Although our contributions are for the most part independant from the underlyingSLAM system, we based our experiments on constrained key-frame based bundle adjustment.The solutions that we propose are evaluated on synthetic sequences as well as on real urbandatasets. These experiments show important performance gains for VSLAM/GPS fusion, andconsiderable improvements in the robustness of building constraints to occlusions
APA, Harvard, Vancouver, ISO, and other styles
7

Héry, Elwan. "Localisation coopérative de véhicules autonomes communicants." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2516.

Full text
Abstract:
Afin de naviguer en autonomie un véhicule doit être capable de se localiser précisément par rapport aux bords de voie pour ne pas sortir de celle-ci et par rapport aux véhicules et piétons pour ne pas causer d'accident. Cette thèse traite de l'intérêt de la communication dans l'amélioration de la localisation des véhicules autonomes. La navigation autonome sur route est souvent réalisée à partir de coordonnées cartésiennes. Afin de mieux représenter la pose d'un véhicule relativement à la voie dans laquelle il circule, nous étudions l'utilisation de coordonnées curvilignes le long de chemins enregistrés dans des cartes. Ces coordonnées généralisent l'abscisse curviligne en y ajoutant un écart latéral signé par rapport au centre de la voie et une orientation relative au centre de cette voie en prenant en compte le sens de circulation. Une première approche de localisation coopérative est réalisée à partir de ces coordonnées. Une fusion de données à une dimension permet de montrer l'intérêt de la localisation coopérative dans le cas simplifié où l'écart latéral, l'orientation curviligne et la pose relative entre deux véhicules sont connus avec précision. Les problèmes de corrélation des erreurs dus à l'échange d'information sont pris en compte grâce à un filtre par intersection de covariance. Nous présentons ensuite à une méthode de perception de type ICP (Iterative Closest Point) pour déterminer la pose relative entre les véhicules à partir de points LiDAR et d'un modèle polygonal 2D représentant la forme du véhicule. La propagation des erreurs de poses absolues des véhicules à l'aide de poses relatives estimées avec leurs incertitudes se fait via des équations non linéaires qui peuvent avoir un fort impact sur la consistance. Les poses des différents véhicules entourant l'égo-véhicule sont estimés dans une carte locale dynamique (CLD) permettant d'enrichir la carte statique haute définition décrivant le centre de la voie et les bords de celle-ci. La carte locale dynamique est composée de l'état de chaque véhicule communicant. Les états sont fusionnés en utilisant un algorithme asynchrone, à partir de données disponibles à des temps variables. L'algorithme est décentralisé, chaque véhicule calculant sa propre CLD et la partageant. Les erreurs de position des récepteurs GNSS étant biaisées, une détection de marquages est introduite pour obtenir la distance latérale par rapport au centre de la voie afin d'estimer ces biais. Des observations LiDAR avec la méthode ICP permettent de plus d'enrichir la fusion avec des contraintes entre les véhicules. Des résultats expérimentaux illustrent les performances de cette approche en termes de précision et de consistance
To be able to navigate autonomously, a vehicle must be accurately localized relatively to all obstacles, such as roadside for lane keeping and vehicles and pedestrians to avoid causing accidents. This PhD thesis deals with the interest of cooperation to improve the localization of cooperative vehicles that exchange information. Autonomous navigation on the road is often based on coordinates provided in a Cartesian frame. In order to better represent the pose of a vehicle with respect to the lane in which it travels, we study curvilinear coordinates with respect to a path stored in a map. These coordinates generalize the curvilinear abscissa by adding a signed lateral deviation from the center of the lane and an orientation relative to the center of the lane taking into account the direction of travel. These coordinates are studied with different track models and using different projections to make the map-matching. A first cooperative localization approach is based on these coordinates. The lateral deviation and the orientation relative to the lane can be known precisely from a perception of the lane borders, but for autonomous driving with other vehicles, it is important to maintain a good longitudinal accuracy. A one-dimensional data fusion method makes it possible to show the interest of the cooperative localization in this simplified case where the lateral deviation, the curvilinear orientation and the relative positioning between two vehicles are accurately known. This case study shows that, in some cases, lateral accuracy can be propagated to other vehicles to improve their longitudinal accuracy. The correlation issues of the errors are taken into account with a covariance intersection filter. An ICP (Iterative Closest Point) minimization algorithm is then used to determine the relative pose between the vehicles from LiDAR points and a 2D polygonal model representing the shape of the vehicle. Several correspondences of the LiDAR points with the model and different minimization approaches are compared. The propagation of absolute vehicle pose using relative poses with their uncertainties is done through non-linear equations that can have a strong impact on consistency. The different dynamic elements surrounding the ego-vehicle are estimated in a Local Dynamic Map (LDM) to enhance the static high definition map describing the center of the lane and its border. In our case, the agents are only communicating vehicles. The LDM is composed of the state of each vehicle. The states are merged using an asynchronous algorithm, fusing available data at variable times. The algorithm is decentralized, each vehicle computing its own LDM and sharing it. As the position errors of the GNSS receivers are biased, a marking detection is introduced to obtain the lateral deviation from the center of the lane in order to estimate these biases. LiDAR observations with the ICP method allow to enrich the fusion with the constraints between the vehicles. Experimental results of this fusion show that the vehicles are more accurately localized with respect to each other while maintaining consistent poses
APA, Harvard, Vancouver, ISO, and other styles
8

Jacobson, Adam. "Bio-inspired multi-sensor fusion and calibration for robot place learning and recognition." Thesis, Queensland University of Technology, 2018. https://eprints.qut.edu.au/116179/1/Adam%20Jacobson%20Thesis.pdf.

Full text
Abstract:
Determining an agent's location in the world is vital for robotic navigation, path planning and co-operative behaviours. This thesis focuses on the translation of biological insights to the robotics domain to improve topological SLAM with an aim to enable robot navigation and localisation without human intervention. The primary contributions presented within this thesis are SLAM localisation techniques which are robust to environmental changes, require minimal or no human intervention for setup within a new environment and are robust to sensor failures.
APA, Harvard, Vancouver, ISO, and other styles
9

Ericsson, John-Eric, and Daniel Eriksson. "Indoor Positioning and Localisation System with Sensor Fusion : AN IMPLEMENTATION ON AN INDOOR AUTONOMOUS ROBOT AT ÅF." Thesis, KTH, Maskinkonstruktion (Inst.), 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-168841.

Full text
Abstract:
This thesis will present guidelines of how to select sensors and algorithms for indoor positioning and localisation systems with sensor fusion. These guidelines are based on an extensive theory and state of the art research. Different scenarios are presented to give some examples of proposed sensors and algorithms for certain applications. There are of course no right or wrong sensor combinations, but some factors are good to bear in mind when a system is designed. To give an example of the proposed guidelines a Simultaneous Localisation and Mapping (SLAM) system as well as an Indoor Positioning System (IPS) has been designed and implemented on an embedded robot platform. The implemented SLAM system was based on a FastSLAM2 algorithm with ultrasonic range sensors and the implemented IPS was based on a WiFi RSS profiling method using aWeibull-distribution. The methods, sensors and infrastructure have been chosen based on requirements derived from wishes from the stakeholder as well as knowledge from the theory and state of the art research. A combination of SLAM and IPS is proposed, chosen to be called WiFiSLAM, in order to reduce errors from both of the methods. Unfortunately, due to unexpected issues with the platform, no combination has been implemented and tested. The systems were simulated independently before implemented on the embedded platform. Results from these simulations indicated that the requirements were able to be fulfilled as well as an indication of the minimum set-up needed for the implementation. Both the implemented systems were proven to have the expected accuracies during testing and with more time, better tuning could have been performed and probably also better results. From the results, a conclusion could be drawn that a combined WiFi SLAM solution would have improved the result in a larger testing area than what was used. IPS would have increased its precision and SLAM would have got an increased robustness. The thesis has shown that there is no exact way of finding a perfect sensor and method solution. Most important is, however, the weight between time, cost and quality. Other important factors are to decide in which environment a system will perform its tasks and if it is a safety critical system. It has also been shown that fused sensor data will outperform the result of just one sensor and that there is no max limit in fused sensors. However, that requires the sensor fusion algorithm to be well tuned, otherwise the opposite might happen.
Examensjobbet presenterar riktlinjer för hur sensorer och algoritmer för inomhuspositionering och lokaliseringssystem med sensorfusion bör väljas. Riktlinjerna är baserade på en omfattande teori och state of the art undersökning. Olika scenarion presenteras för att ge exempel på metoder för att välja sensorer och algoritmer för applikationer. Självklart finns det inga kombinationer som är rätt eller fel, men vissa faktorer är bra att komma ihåg när ett system designas. För att ge exempel på de föreslagna riktlinjerna har ett “Simultaneous Localisation and Mapping” (SLAM) system samt ett Inomhus Positioneringssystem (IPS) designats och implementerats på en inbyggd robotplattform. Det implementerade SLAM systemet baserades på en FastSLAM2algoritm med ultraljudssensorer och det implementerade IPS baserades på en Wifi RSS profileringsmetod som använder en Weibullfördelning. Metoderna, sensorerna och infrastrukturenhar valts utifrån krav som framställts från önskningar av intressenten samt utifrån kunskap från teori och state of the art undersökningen. En kombination av SLAM och IPS har föreslagits och valts att kallas WiFi SLAM för att reducera osäkerheter från de båda metoderna. Tyvärr har ingen kombination implementerats och testats på grund av oväntade problem med plattformen. Systemen simulerades individuellt före implementationen på den inbyggda plattformen. Resultat från dessa simuleringar tydde på att kraven skulle kunna uppfyllas samt gav en indikation av den minsta “set-upen” som behövdes för implementering. Båda de implementerade systemen visade sig ha de förväntade noggrannheterna under testning och med mer tid kunde bättre kalibrering ha skett, vilket förmodligen skulle resulterat i bättre resultat. Från resultaten kunde slutsatsen dras att en kombinerad WiFi SLAM lösning skulle förbättrat resultatet i en större testyta än den som användes. IPS skulle ha ökat sin precision medan SLAM skulle ha ökat sin robusthet. Examensjobbet har visat att det inte finns något exakt sätt att hitta en perfekt sensor och metodlösning. Viktigast är dock viktningen mellan tid, kostnad och kvalitet. Andra viktigafaktorer är att bestämma miljön systemet skall operera i och om systemet är säkerhetskritiskt. Det visade sig även att fusionerad sensordata kommer överträffa resultatet från endast en sensor och att det inte finns någon maxgräns för antalet fusionerade sensorer. Det kräver dock att sensorfusionsalgoritmen är väl kalibrerad, annars kan det motsatta inträffa.
APA, Harvard, Vancouver, ISO, and other styles
10

Ladhari, Maroua. "Architecture générique de fusion par approche Top-Down : application à la localisation d’un robot mobile." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC052.

Full text
Abstract:
La problématique qui va être abordée dans cette thèse est la localisation d’un robot mobile. Ce dernier, équipé de capteurs bas-coût, cherche à exploiter le maximum d’informations possibles pour répondre à un objectif fixé au préalable. Un problème de fusion de données sera traité d’une manière à ce qu’à chaque situation, le robot saura quelle information utiliser pour se localiser d’une manière continue. Les données que nous allons traiter seront de différents types. Dans nos travaux, deux propriétés de localisation sont désirées: la précision et la confiance. Pour pouvoir le contrôler, le robot doit connaître sa position d’une manière précise et intègre. En effet, la précision désigne le degré d’incertitude métrique lié à la position estimée. Elle est retournée par un filtre de fusion. Si en plus, le degré de certitude d’être dans cette zone d’incertitude est grand, la confiance dans l’estimation sera élevée et cette estimation sera donc considérée comme intègre. Ces deux propriétés sont généralement liées. C’est pourquoi, elles sont souvent représentées ensemble pour caractériser l'estimation retournée de la pose du robot. Dans ce travail nous rechercherons à optimiser simultanément ces deux propriétés.Pour tirer profit des différentes techniques existantes pour une estimation optimale de la pose du robot,nous proposons une approche descendante basée sur l’exploitation d’une carte environnementale définie dans un référentiel absolu. Cette approche utilise une sélection a priori des meilleures mesures informatives parmi toutes les sources de mesure possibles. La sélection se fait selon un objectif donné (de précision et de confiance), l’état actuel du robot et l’apport informationnel des données.Comme les données sont bruitées, imprécises et peuvent également être ambiguës et peu fiables, la prise en compte de ces limites est nécessaire afin de fournir une évaluation de la pose du robot aussi précise et fiable que possible. Pour cela, une focalisation spatiale et un réseau bayésien sont utilisés pour réduire les risques de mauvaises détections. Si malgré tout de mauvaises détections subsistent, elles seront gérées par un processus de retour qui réagit de manière efficace en fonction des objectifs souhaités.Les principales contributions de ce travail sont d'une part la conception d'une architecture de localisation multi-sensorielle générique et modulaire de haut niveau avec un mode opératoire descendant. Nous avons utilisé la notion de triplet perceptif qui représente un ensemble amer, capteur, détecteur pour désigner chaque module perceptif. À chaque instant, une étape de prédiction et une autre de mise à jour sont exécutées. Pour l’étape de mise à jour, le système sélectionne le triplet le plus pertinent (d'un point de vue précision et confiance) selon un critère informationnel. L’objectif étant d’assurer une localisation intègre et précise, notre algorithme a été écrit de manière à ce que l’on puisse gérer les aspects ambiguïtés.D'autre part, l'algorithme développé permet de localiser un robot dans une carte de l'environnement. Pour cela, une prise en compte des possibilités de mauvaises détections suite aux phénomènes d'ambiguïté a été considérée par le moyen d'un processus de retour en arrière. En effet, ce dernier permet d'une part de corriger une mauvaise détection et d'autre part d'améliorer l’estimation retournée de la pose pour répondre à un objectif souhaité
The issue that will be addressed in this thesis is the localization of a mobile robot. Equipped with low- cost sensors, the robot aims to exploit the maximum possible amount of information to meet an objective set beforehand. A data fusion problem will be treated in a way that at each situation, the robot will select which information to use to locate itself in a continuous way. The data we will process will be of different types.In our work, two properties of localization are desired: accuracy and confidence. In order to be controlled, the robot must know its position in a precise and reliable way. Indeed, accuracy refers to the degree of uncertainty related to the estimated position. It is returned by a fusion filter. If, in addition, the degree of certainty of being in this uncertainty zone is important, we will have a good confidence contribution and the estimate will be considered as reliable. These two properties are generally related. This is why they are often represented together to characterize the returned estimate of the robot position. In this work, our objective is to simultaneously optimize these two properties.To take advantage of the different existing techniques for an optimal estimation of the robot position, we propose a top-down approach based on the exploitation of environmental map environmental map defined in an absolute reference frame. This approach uses an a priori selection of the best informative measurements among all possible measurement sources. The selection is made according to a given objective (of accuracy and confidence), the current robot state and the data informational contribution.As the data is noisy, imprecise and may also be ambiguous and unreliable, the consideration of these limitations is necessary in order to provide the most accurate and reliable robot position estimation. For this, spatial focusing and a Bayesian network are used to reduce the risk of misdetection. However, in case of ambiguities, these misdetections may occur. A backwards process has been developed in order to react efficiently to these situations and thus achieve the set objectives.The main contributions of this work are on one side the development of a high-level generic and modular multi sensory localization architecture with a top-down process. We used a concept of perceptual triplet which is the set of landmark, sensor and detector to designate each perceptual module. At each time, a prediction and an update steps are performed. For the update step, the system selects the most relevant triplet (in terms of accuracy and confidence) according to an informational criterion. In order to ensure an accurate and relaible localization, our algorithm has been written in such a way that ambiguity aspects can be managed.On the other side, the developed algorithm allows to locate a robot in an environment map. For this purpose, the possibility of bad detections due to ambiguity phenomena has been taken into account in the backward process. Indeed, this process allows on the one hand to correct a bad detection and on the other hand to improve the returned position estimation to meet a desired objective
APA, Harvard, Vancouver, ISO, and other styles
11

Lassoued, Khaoula. "Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Full text
Abstract:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
APA, Harvard, Vancouver, ISO, and other styles
12

Michot, Julien. "Recherche linéaire et fusion de données par ajustement de faisceaux : application à la localisation par vision." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00626489.

Full text
Abstract:
Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d'une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l'ajustement de faisceaux. Cette thèse présente tout d'abord une technique de recherche de l'amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l'algorithme d'ajustement de faisceaux. L'approximation de l'erreur de reprojection par une distance algébrique rend possible le calcul analytique d'une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d'un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d'orientation, de position et d'échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d'utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l'application ciblée (un odomètre pour la localisation d'un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l'ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l'orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d'ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système.
APA, Harvard, Vancouver, ISO, and other styles
13

Abu-Mahfouz, Adnan Mohammed. "Accurate and efficient localisation in wireless sensor networks using a best-reference selection." Thesis, University of Pretoria, 2011. http://hdl.handle.net/2263/28662.

Full text
Abstract:
Many wireless sensor network (WSN) applications depend on knowing the position of nodes within the network if they are to function efficiently. Location information is used, for example, in item tracking, routing protocols and controlling node density. Configuring each node with its position manually is cumbersome, and not feasible in networks with mobile nodes or dynamic topologies. WSNs, therefore, rely on localisation algorithms for the sensor nodes to determine their own physical location. The basis of several localisation algorithms is the theory that the higher the number of reference nodes (called “references”) used, the greater the accuracy of the estimated position. However, this approach makes computation more complex and increases the likelihood that the location estimation may be inaccurate. Such inaccuracy in estimation could be due to including data from nodes with a large measurement error, or from nodes that intentionally aim to undermine the localisation process. This approach also has limited success in networks with sparse references, or where data cannot always be collected from many references (due for example to communication obstructions or bandwidth limitations). These situations require a method for achieving reliable and accurate localisation using a limited number of references. Designing a localisation algorithm that could estimate node position with high accuracy using a low number of references is not a trivial problem. As the number of references decreases, more statistical weight is attached to each reference’s location estimate. The overall localisation accuracy therefore greatly depends on the robustness of the selection method that is used to eliminate inaccurate references. Various localisation algorithms and their performance in WSNs were studied. Information-fusion theory was also investigated and a new technique, rooted in information-fusion theory, was proposed for defining the best criteria for the selection of references. The researcher chose selection criteria to identify only those references that would increase the overall localisation accuracy. Using these criteria also minimises the number of iterations needed to refine the accuracy of the estimated position. This reduces bandwidth requirements and the time required for a position estimation after any topology change (or even after initial network deployment). The resultant algorithm achieved two main goals simultaneously: accurate location discovery and information fusion. Moreover, the algorithm fulfils several secondary design objectives: self-organising nature, simplicity, robustness, localised processing and security. The proposed method was implemented and evaluated using a commercial network simulator. This evaluation of the proposed algorithm’s performance demonstrated that it is superior to other localisation algorithms evaluated; using fewer references, the algorithm performed better in terms of accuracy, robustness, security and energy efficiency. These results confirm that the proposed selection method and associated localisation algorithm allow for reliable and accurate location information to be gathered using a minimum number of references. This decreases the computational burden of gathering and analysing location data from the high number of references previously believed to be necessary.
Thesis (PhD(Eng))--University of Pretoria, 2011.
Electrical, Electronic and Computer Engineering
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
14

Wang, Zhan. "Guaranteed Localization and Mapping for Autonomous Vehicles." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS395.

Full text
Abstract:
Avec le développement rapide et les applications étendues de la technologie de robot, la recherche sur le robot mobile intelligent a été programmée dans le plan de développement de haute technologie dans beaucoup de pays. La navigation autonome joue un rôle de plus en plus important dans le domaine de recherche du robot mobile intelligent. La localisation et la construction de cartes sont les principaux problèmes à résoudre par le robot pour réaliser une navigation autonome. Les techniques probabilistes (telles que le filtre étendu de Kalman et le filtre de particules) ont longtemps été utilisées pour résoudre le problème de localisation et de cartographie robotisées. Malgré leurs bonnes performances dans les applications pratiques, ils pourraient souffrir du problème d'incohérence dans les scénarios non linéaires, non gaussiens. Cette thèse se concentre sur l'étude des méthodes basées sur l'analyse par intervalles appliquées pour résoudre le problème de localisation et de cartographie robotisées. Au lieu de faire des hypothèses sur la distribution de probabilité, tous les bruits de capteurs sont supposés être bornés dans des limites connues. Sur la base d'une telle base, cette thèse formule le problème de localisation et de cartographie dans le cadre du problème de satisfaction de contraintes d'intervalle et applique des techniques d'intervalles cohérentes pour les résoudre de manière garantie. Pour traiter le problème du "lacet non corrigé" rencontré par les approches de localisation par ICP (Interval Constraint Propagation), cette thèse propose un nouvel algorithme ICP traitant de la localisation en temps réel du véhicule. L'algorithme proposé utilise un algorithme de cohérence de bas niveau et est capable de diriger la correction d'incertitude. Par la suite, la thèse présente un algorithme SLAM basé sur l'analyse d'intervalle (IA-SLAM) dédié à la caméra monoculaire. Une paramétrisation d'erreur liée et une initialisation non retardée pour un point de repère naturel sont proposées. Le problème SLAM est formé comme ICSP et résolu par des techniques de propagation par contrainte d'intervalle. Une méthode de rasage pour la contraction de l'incertitude historique et une méthode d'optimisation basée sur un graphique ICSP sont proposées pour améliorer le résultat obtenu. L'analyse théorique de la cohérence de la cartographie est également fournie pour illustrer la force de IA-SLAM. De plus, sur la base de l'algorithme IA-SLAM proposé, la thèse présente une approche cohérente et peu coûteuse pour la localisation de véhicules en extérieur. Il fonctionne dans un cadre en deux étapes (enseignement visuel et répétition) et est validé avec un véhicule de type voiture équipé de capteurs de navigation à l'estime et d'une caméra monoculaire
With the rapid development and extensive applications of robot technology, the research on intelligent mobile robot has been scheduled in high technology development plan in many countries. Autonomous navigation plays a more and more important role in the research field of intelligent mobile robot. Localization and map building are the core problems to be solved by the robot to realize autonomous navigation. Probabilistic techniques (such as Extented Kalman Filter and Particle Filter) have long been used to solve the robotic localization and mapping problem. Despite their good performance in practical applications, they could suffer the inconsistency problem in the non linear, non Gaussian scenarios. This thesis focus on study the interval analysis based methods applied to solve the robotic localization and mapping problem. Instead of making hypothesis on the probability distribution, all the sensor noises are assumed to be bounded within known limits. Based on such foundation, this thesis formulates the localization and mapping problem in the framework of Interval Constraint Satisfaction Problem and applied consistent interval techniques to solve them in a guaranteed way. To deal with the “uncorrected yaw” problem encountered by Interval Constraint Propagation (ICP) based localization approaches, this thesis proposes a new ICP algorithm dealing with the real-time vehicle localization. The proposed algorithm employs a low-level consistency algorithm and is capable of heading uncertainty correction. Afterwards, the thesis presents an interval analysis based SLAM algorithm (IA-SLAM) dedicates for monocular camera. Bound-error parameterization and undelayed initialization for nature landmark are proposed. The SLAM problem is formed as ICSP and solved via interval constraint propagation techniques. A shaving method for landmark uncertainty contraction and an ICSP graph based optimization method are put forward to improve the obtaining result. Theoretical analysis of mapping consistency is also provided to illustrated the strength of IA-SLAM. Moreover, based on the proposed IA-SLAM algorithm, the thesis presents a low cost and consistent approach for outdoor vehicle localization. It works in a two-stage framework (visual teach and repeat) and is validated with a car-like vehicle equipped with dead reckoning sensors and monocular camera
APA, Harvard, Vancouver, ISO, and other styles
15

Hardt, Hans-Joachim von der. "Contribution au pilotage et à la localisation d'un robot mobile." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL120N.

Full text
Abstract:
Les travaux présentés dans ce mémoire traitent des problèmes relatifs au pilotage et à la localisation d'un robot mobile à roues. Le système de pilotage développé permet d'asservir un véhicule de type fauteuil roulant électrique sur des trajectoires de référence composées de segments rectilignes et de segments en forme de splines polaires. La localisation relative du robot mobile est assurée par un système multicapteur constitué de deux codeurs incrémentaux (odométrie), un gyromètre et un magnétomètre. Le calibrage étant primordial pour les performances du système multicapteur, une méthode d'autocalibrage est développée permettant d'exécuter simultanément et de manière automatique le calibrage de tous les capteurs. La redondance des données sensorielles est exploitée afin d'identifier les paramètres du système qui sont a priori inconnus. L’estimation de l'état du robot mobile est réalisée par un filtre de Kalman étendu développé pour le traitement séquentiel des données sensorielles. Les algorithmes présentés ont été implantés et validés sur la plate-forme expérimentale romane
APA, Harvard, Vancouver, ISO, and other styles
16

Dia, Roxana. "Towards Environment Perception using Integer Arithmetic for Embedded Application." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM038.

Full text
Abstract:
Le principal inconvénient de l'utilisation de représentations basées sur la grille pour SLAM et pour la localisation globale est la complexité de calcul exponentielle requise en termes de taille de grille (de la carte et des cartes de pose). La taille de grille requise pour modéliser l'environnement entourant un robot ou un véhicule peut être de l'ordre de milliers de millions de cellules. Par exemple, un espace 2D de forme carrée de taille 100 m × 100 m, avec une taille de cellule de 10 cm est modélisé avec une grille de 1 million de cellules. Si nous incluons une hauteur de 2 m pour représenter la troisième dimension, 20 millions de cellules sont nécessaires. Par conséquent, les approches SLAM classiques basées sur une grille et de localisation globale nécessitent une unité de calcul parallèle afin de répondre à la latence imposée par les normes de sécurité. Un tel calcul est généralement effectué sur des postes de travail intégrant des unités de traitement graphique (GPU) et / ou des processeurs haut de gamme. Cependant, les véhicules autonomes ne peuvent pas gérer de telles plateformes pour des raisons de coût et de problèmes de certification. De plus, ces plates-formes nécessitent une consommation d'énergie élevée qui ne peut pas correspondre à la source d'énergie limitée disponible dans certains robots. Les plates-formes matérielles intégrées sont couramment utilisées comme solution alternative dans les applications automobiles. Ces plateformes répondent aux contraintes de faible coût, de faible puissance et de petit espace. De plus, certains d'entre eux sont certifiés automobiles1, suivant la norme ISO26262. Cependant, la plupart d'entre eux ne sont pas équipés d'une unité à virgule flottante, ce qui limite les performances de calcul.L'équipe du projet sigma-fusion du laboratoire LIALP du CEA-Leti a développé une méthode de perception basée sur des nombres entiers adaptée aux appareils embarqués. Cette méthode permet de construire une grille d'occupation via la fusion bayésienne en utilisant uniquement l'arithmétique entière, d'où son "embarquabilité" sur des plateformes informatiques embarquées, sans unité à virgule flottante. Ceci constitue la contribution majeure de la thèse de doctorat de Tiana Rakotovao [Rakotovao Andriamahefa 2017].L'objectif de la présente thèse est d'étendre le cadre de perception des nombres entiers au SLAM et aux problèmes de localisation globale, offrant ainsi des solutions «embarquables» sur les systèmes embarqués
The main drawback of using grid-based representations for SLAM and for global localization is the required exponential computational complexity in terms of the grid size (of the map and the pose maps). The required grid size for modeling the environment surrounding a robot or of a vehicle can be in the order of thousands of millions of cells. For instance, a 2D square-shape space of size 100m × 100m, with a cell size of 10cm is modelled with a grid of 1 million cells. If we include a 2m of height to represent the third dimension, 20 millions of cells are required. Consequently, classical grid-based SLAM and global localization approaches require a parallel computing unit in order to meet the latency imposed by safety standards. Such a computation is usually done over workstations embedding Graphical Processing Units (GPUs) and/or a high-end CPUs. However, autonomous vehicles cannot handle such platforms for cost reason, and certification issues. Also, these platforms require a high power consumption that cannot fit within the limited source of energy available in some robots. Embedded hardware platforms are com- monly used as an alternative solution in automotive applications. These platforms meet the low-cost, low-power and small-space constraints. Moreover, some of them are automotive certified1, following the ISO26262 standard. However, most of them are not equipped with a floating-point unit, which limits the computational performance.The sigma-fusion project team in the LIALP laboratory at CEA-Leti has developed an integer-based perception method suitable for embedded devices. This method builds an occupancy grid via Bayesian fusion using integer arithmetic only, thus its "embeddability" on embedded computing platforms, without floating-point unit. This constitutes the major contribution of the PhD thesis of Tiana Rakotovao [Rakotovao Andriamahefa 2017].The objective of the present PhD thesis is to extend the integer perception framework to SLAM and global localization problems, thus offering solutions “em- beddable” on embedded systems
APA, Harvard, Vancouver, ISO, and other styles
17

Féraud, Thomas. "Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697028.

Full text
Abstract:
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
APA, Harvard, Vancouver, ISO, and other styles
18

Pibre, Lionel. "Localisation d'objets urbains à partir de sources multiples dont des images aériennes." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS107/document.

Full text
Abstract:
Cette thèse aborde des problèmes liés à la localisation et la reconnaissance d’objets urbains dans des images multi-sources (optique, infrarouge, Modèle Numérique de Surface) de très haute précision acquises par voie aérienne.Les objets urbains (lampadaires, poteaux, voitures, arbres…) présentent des dimensions, des formes, des textures et des couleurs très variables. Ils peuvent être collés les uns les autres et sont de petite taille par rapport à la dimension d’une image. Ils sont présents en grand nombre mais peuvent être partiellement occultés. Tout ceci rend les objets urbains difficilement identifiables par les techniques actuelles de traitement d’images.Dans un premier temps, nous avons comparé les approches d’apprentissage classiques, composées de deux étapes - extraction de caractéristiques par le biais d’un descripteur prédéfini et utilisation d’un classifieur - aux approches d’apprentissage profond (Deep Learning), et plus précisément aux réseaux de neurones convolutionnels (CNN). Les CNN donnent de meilleurs résultats mais leurs performances ne sont pas suffisantes pour une utilisation industrielle. Nous avons donc proposé deux améliorations.Notre première contribution consiste à combiner de manière efficace les données provenant de sources différentes. Nous avons comparé une approche naïve qui consiste à considérer toutes les sources comme des composantes d’une image multidimensionnelle à une approche qui réalise la fusion des informations au sein même du CNN. Pour cela, nous avons traité les différentes informations dans des branches séparées du CNN. Nous avons ainsi montré que lorsque la base d’apprentissage contient peu de données, combiner intelligemment les sources dans une phase de pré-traitement (nous combinons l'optique et l'infrarouge pour créer une image NDVI) avant de les donner au CNN améliore les performances.Pour notre seconde contribution, nous nous sommes concentrés sur le problème des données incomplètes. Jusque-là, nous considérions que nous avions accès à toutes les sources pour chaque image mais nous pouvons aussi nous placer dans le cas où une source n’est pas disponible ou utilisable pour une image. Nous avons proposé une architecture permettant de prendre en compte toutes les données, même lorsqu’il manque une source sur une ou plusieurs images. Nous avons évalué notre architecture et montré que sur un scénario d’enrichissement, cette architecture permet d'obtenir un gain de plus de 2% sur la F-mesure.Les méthodes proposées ont été testées sur une base de données publique. Elles ont pour objectif d’être intégrées dans un logiciel de la société Berger-Levrault afin d’enrichir les bases de données géographiques et ainsi faciliter la gestion du territoire par les collectivités locales
This thesis addresses problems related to the location and recognition of urban objects in multi-source images (optical, infrared, terrain model) of very high precision acquired by air.Urban objects (lamp posts, poles, car, tree...) have dimensions, shapes, textures and very variable colors. They can be glued to each other and are small with respect to the size of an image. They are present in large numbers but can be partially hidden. All this makes urban objects difficult to identify with current image processing techniques.First, we compared traditional learning approaches, consisting of two stages - extracting features through a predefined descriptor and using a classifier - to deep learning approaches and more precisely Convolutional Neural Networks (CNN). CNNs give better results but their performances are not sufficient for industrial use. We therefore proposed two contributions to increase performance.The first is to efficiently combine data from different sources. We compared a naive approach that considers all sources as components of a multidimensional image to an approach that merges information within CNN itself. For this, we have processed the different information in separate branches of the CNN.For our second contribution, we focused on the problem of incomplete data. Until then, we considered that we had access to all the sources for each image but we can also place ourselves in the case where a source is not available or usable. We have proposed an architecture to take into account all the data, even when a source is missing in one or more images. We evaluated our architecture and showed that on an enrichment scenario, it allows to have a gain of more than 2% on the F-measure.The proposed methods were tested on a public database. They aim to be integrated into a Berger-Levrault company software in order to enrich geographic databases and thus facilitate the management of the territory by local authorities
APA, Harvard, Vancouver, ISO, and other styles
19

Wei, Lijun. "Multi-sources fusion based vehicle localization in urban environments under a loosely coupled probabilistic framework." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-01004660.

Full text
Abstract:
In some dense urban environments (e.g., a street with tall buildings around), vehicle localization result provided by Global Positioning System (GPS) receiver might not be accurate or even unavailable due to signal reflection (multi-path) or poor satellite visibility. In order to improve the accuracy and robustness of assisted navigation systems so as to guarantee driving security and service continuity on road, a vehicle localization approach is presented in this thesis by taking use of the redundancy and complementarities of multiple sensors. At first, GPS localization method is complemented by onboard dead-reckoning (DR) method (inertial measurement unit, odometer, gyroscope), stereovision based visual odometry method, horizontal laser range finder (LRF) based scan alignment method, and a 2D GIS road network map based map-matching method to provide a coarse vehicle pose estimation. A sensor selection step is applied to validate the coherence of the observations from multiple sensors, only information provided by the validated sensors are combined under a loosely coupled probabilistic framework with an information filter. Then, if GPS receivers encounter long term outages, the accumulated localization error of DR-only method is proposed to be bounded by adding a GIS building map layer. Two onboard LRF systems (a horizontal LRF and a vertical LRF) are mounted on the roof of the vehicle and used to detect building facades in urban environment. The detected building facades are projected onto the 2D ground plane and associated with the GIS building map layer to correct the vehicle pose error, especially for the lateral error. The extracted facade landmarks from the vertical LRF scan are stored in a new GIS map layer. The proposed approach is tested and evaluated with real data sequences. Experimental results with real data show that fusion of the stereoscopic system and LRF can continue to localize the vehicle during GPS outages in short period and to correct the GPS positioning error such as GPS jumps; the road map can help to obtain an approximate estimation of the vehicle position by projecting the vehicle position on the corresponding road segment; and the integration of the building information can help to refine the initial pose estimation when GPS signals are lost for long time.
APA, Harvard, Vancouver, ISO, and other styles
20

Antigny, Nicolas. "Estimation continue de la pose d'un équipement tenu en main par fusion des données visio-inertielles pour les applications de navigation piétonne en milieux urbains." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0027/document.

Full text
Abstract:
Pour assister la navigation piétonne dans les espaces urbains et intérieurs, une estimation précise de la pose (i.e. la position 3D et l'orientation3D) d'un équipement tenu en main constitue un point essentiel dans le développement d'outils d'aide à la mobilité (e.g. applications de réalité augmentée). Dans l'hypothèse où le piéton n'est équipé que d'appareils grand public, l'estimation de la pose est limitée à l'utilisation de capteurs à faible coût intégrés dans ces derniers (i.e. un récepteur GNSS, une unité de mesure inertielle et magnétique et une caméra monoculaire). De plus, les espaces urbains et intérieurs, comprenant des bâtiments proches et des éléments ferromagnétiques, constituent des zones difficiles pour la localisation et l'estimation de la pose lors de grands déplacements piétons.Cependant, le développement récent et la mise à disposition d'informations contenues dans des Systèmes d'Information Géographiques 3D constituent une nouvelle source de données exploitable pour la localisation et l'estimation de la pose. Pour relever ces défis, cette thèse propose différentes solutions pour améliorer la localisation et l'estimation de la pose des équipements tenus en main par le piéton lors de ses déplacements en espaces urbains et intérieurs. Les solutions proposées intègrent l'estimation de l'attitude basée inertielle et magnétique, l'odométrie visuelle monoculaire mise à l'échelle grâce à l'estimation des déplacements du piéton, l'estimation absolue de la pose basée sur la reconnaissance d'objets SIG 3D parfaitement connus et la mise à jour en position de la navigation à l'estime du piéton.Toutes ces solutions s'intègrent dans un processus de fusion permettant d'améliorer la précision de la localisation et d'estimer en continu une pose qualifiée de l'appareil tenu en main.Cette qualification est nécessaire à la mise en place d'un affichage en réalité augmentée sur site. Pour évaluer les solutions proposées, des données expérimentales ont été recueillies au cours de déplacements piétons dans un espace urbain avec des objets de référence et des passages intérieurs
To support pedestrian navigation in urban and indoor spaces, an accurate pose estimate (i.e. 3Dposition and 3D orientation) of an equipment held inhand constitutes an essential point in the development of mobility assistance tools (e.g.Augmented Reality applications). On the assumption that the pedestrian is only equipped with general public devices, the pose estimation is restricted to the use of low-cost sensors embedded in the latter (i.e. an Inertial and Magnetic Measurement Unit and a monocular camera). In addition, urban and indoor spaces, comprising closely-spaced buildings and ferromagnetic elements,constitute challenging areas for localization and sensor pose estimation during large pedestrian displacements.However, the recent development and provision of data contained in 3D Geographical Information System constitutes a new wealth of data usable for localization and pose estimation.To address these challenges, this thesis proposes solutions to improve pedestrian localization and hand-held device pose estimation in urban and indoor spaces. The proposed solutions integrate inertial and magnetic-based attitude estimation, monocular Visual Odometry with pedestrian motion estimation for scale estimation, 3D GIS known object recognition-based absolute pose estimation and Pedestrian Dead-Reckoning updates. All these solutions are fused to improve accuracy and to continuously estimate a qualified pose of the handheld device. This qualification is required tovalidate an on-site augmented reality display. To assess the proposed solutions, experimental data has been collected during pedestrian walks in an urban space with sparse known objects and indoors passages
APA, Harvard, Vancouver, ISO, and other styles
21

Amri, Mohamed-Hédi. "Fusion ensembliste de donn´ees pour la surveillance des personnes d´ependantes en habitat intelligent." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2030/document.

Full text
Abstract:
Mes travaux de recherches en thèse s’inscrivent dans le cadre du projet FUIE-monitorâge. L’objectif du projet, réunissant de nombreux partenaires industriels et universitaires, est d’améliorer la prise en charge individualisée et la sécurité du résident dans les établissements d’hébergement pour personnes âgées dépendantes(EHPAD). Dans ce travail, nous avons élaboré une méthode de fusion de données multimodales issues des différents capteurs installés dans un smart home. Ces informations sont utilisées pour la localisation intérieure des personnes afin de surveiller leurs activités journalières. Généralement, les mesures issues des capteurs sont soumises à des incertitudes. Dans nos travaux, ces erreurs sont supposées inconnues mais bornées. En tenant compte de cette hypothèse, une méthode de résolution d’un problème d’estimation d’état est élaborée en se basant sur des calculs ensemblistes. Notre algorithme de filtrage ensembliste comporte deux étapes. La première, dite de prédiction, est basée sur l’utilisation d’un modèle de marche aléatoire avec des hypothèses minimales (vitesse de déplacement maximale) pour prédire la zone où se trouve la personne. La deuxième étape, dite de correction, consiste à utiliser la mesure pour affiner cette zone. Cette étape utilise une technique de propagation de contraintes relâchée, q-relaxed intersection, pour permettre une meilleure robustesse par rapport aux données aberrantes. Notre algorithme est capable de quantifier, par un intervalle, l’incertitude commise sur les positions de cibles en mouvement tout en détectant les défauts de capteurs
Our research work is a part of the project FUI 14 FEDER Collectivités E-monitor’âge. This project takes place within the framework of Ambient Assisted Living (AAL) which aims to improve the safety and the comfort of elderly people living in smart nursing homes. This work aims to monitor the activities of elderly persons using information from different sensors. The ADL (Activities of Daily Living) are used to evaluate the ability of the person to perform on their own a selection of the activities which are essential for an independent living in the everyday life. Generally, process knowledge and measurements coming from sensors are prone to indeterminable noise. In our work, we suppose that these errors are unknown but bounded. Taking into account this hypothesis, we show how to solve the estimation issue using set-membership computations techniques. Our algorithm, based on set-membership approach, consists of two steps. The prediction step, based on the use of a random walk mobility with minimum assumptions (maximum speed of moving), employs the previous state estimate to provide the prediction zone where the person may be located. The correction step uses the informations coming from the sensors to refine this predicted zone. This step uses a relaxed constraints propagation technique, q-relaxed intersection, to deal with faulty measurements. This proposed method allows us to compute the uncertainty domain for the reconstructed localization of moving targets as dealing with outliers
APA, Harvard, Vancouver, ISO, and other styles
22

Han, Cheng-Yu. "Clock Synchronization and Localization for Wireless Sensor Network." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS453/document.

Full text
Abstract:
Les réseaux de capteurs sans fil (WSN) jouent un rôle important dans des applications telles que la surveillance de l'environnement, le suivi de sources et le suivi médical, ...etc. Dans les WSN, les capteurs ont la capacité d'effectuer l'échantillonnage des données, des calculs distribués et de fusionner des données. Pour effectuer ces tâches complexes, la synchronisation des horloges et la localisation sont fondamentales et essentielles. Les WSN ont été largement étudiés ces dernières années et la littérature scientifique rapporte de nombreux résultats qui les rendent applicables pour de nombreuses applications. Pour d'autres, la recherche doit encore trouver des solutions à certains des défis posés par la limitation énergétique, la dynamicité et la faible puissance de calcul. Dans le but de contribuer à la recherche sur les WSN, cette thèse propose de nouveaux algorithmes pour la synchronisation d'horloge et la localisation. La synchronisation d'horloge est nécessaire afin que les effectuent de manière efficace la fusion de données. En appliquant l'algorithme de synchronisation d'horloge, les capteurs établissent un consensus temporel et travaillent donc au même rythme. Compte tenu de la dynamicité, des faibles capacités de calcul et de la parcimonie des WSN, un nouvel algorithme de synchronisation décentralisée à impulsions couplées est proposé pour améliorer la précision de la synchronisation. L'avantage de ce type d'algorithme est que les capteurs échangent des impulsions au lieu de paquets, de sorte que non seulement la communication est efficace, mais aussi robuste à toute défaillance des capteurs dans le réseau. La localisation de capteurs a été largement étudiée dans la littérature scientifique. Cependant, la qualité et la précision de la localisation peuvent encore être améliore. Cette thèse applique l'algorithme LSCR (Régression de régions corrélées à signes dominants) au problème de localisation. Avec LSCR, on évalue des régions de confiance avec des niveaux de confiance prescrits, qui fournissent non seulement on emplacement mais aussi la confiance en cet emplacement. Dans cette thèse, plusieurs approches de localisation sont implémentées et comparées. Le résultat de la simulation montre que, sous hypothèses modérées, LSCR obtient des résultats compétitifs par rapport à d'autres méthodes
Wireless sensor networks (WSNs) play an important role in applications such as environmental monitoring, source tracking, and health care,... In WSN, sensors have the ability to perform data sampling, distributed computing and information fusion. To perform such complex tasks, clock synchronization and localization are two fundamental and essential algorithms. WSNs have been widely studied in the past years, and the scientific literature reports many outcomes that make them applicable for some applications. For some others, research still needs to find solutions to some of the challenges posed by battery limitation, dynamicity, and low computing clock rate. With the aim of contributing to the research on WSN, this thesis proposes new algorithms for both clock synchronization and localization. For clock synchronization, sensors converge their local physical clock to perform data fusion. By applying the clock synchronization algorithm, sensors converge the time difference and therefore work at the same rate. In view of dynamicity, low computing and sparsity of WSN, a new pulse-coupled decentralized synchronization algorithm is proposed to improve the precision of the synchronization. The benefit of this kind of algorithm is that sensors only exchange zero-bit pulse instead of packets, so not only the communication is efficient but also robust to any failure of the sensors in the network. Localization of sensors has been widely studied. However, the quality and the accuracy of the localization still have a large room to improve. This thesis apply Leave-out Sign-dominant Correlated Regions (LSCR) algorithm to localization problem. With LSCR, one evaluates the accurate estimates of confidence regions with prescribed confidence levels, which provide not only the location but also the confidence of the estimation. In this thesis, several localization approaches are implemented and compared. The simulation result shows under mild assumptions, LSCR obtains competitive results compared to other methods
APA, Harvard, Vancouver, ISO, and other styles
23

Vivet, Damien. "Perception de l'environnement par radar hyperfréquence. Application à la localisation et la cartographie simultanées, à la détection et au suivi d'objets mobiles en milieu extérieur." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00659270.

Full text
Abstract:
Dans le cadre de la robotique mobile extérieure, les notions de perception et de localisation sont essentielles au fonctionnement autonome d'un véhicule. Les objectifs de ce travail de thèse sont multiples et mènent vers un but de localisation et de cartographie simultanée d'un environnement extérieur dynamique avec détection et suivi d'objet mobiles (SLAMMOT) à l'aide d'un unique capteur extéroceptif tournant de type radar dans des conditions de circulation dites "réalistes", c'est-à-dire à haute vitesse soit environ 30 km/h. Il est à noter qu'à de telles vitesses, les données acquises par un capteur tournant son corrompues par le déplacement propre du véhicule. Cette distorsion, habituellement considérée comme une perturbation, est analysée ici comme une source d'information. Cette étude vise également à évaluer les potentialités d'un capteur radar de type FMCW (onde continue modulée en fréquence) pour le fonctionnement d'un véhicule robotique autonome. Nous avons ainsi proposé différentes contributions : - une correction de la distorsion à la volée par capteurs proprioceptifs qui a conduit à une application de localisation et de cartographie simultanées (SLAM), - une méthode d'évaluation de résultats de SLAM basées segment, - une considération de la distorsion des données dans un but proprioceptif menant à une application SLAM, - un principe d'odométrie fondée sur les données Doppler propres au capteur radar, - une méthode de détection et de pistage d'objets mobiles : DATMO avec un unique radar.
APA, Harvard, Vancouver, ISO, and other styles
24

Tao, Zui. "Autonomous road vehicles localization using satellites, lane markings and vision." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2261/document.

Full text
Abstract:
L'estimation de la pose (position et l'attitude) en temps réel est une fonction clé pour les véhicules autonomes routiers. Cette thèse vise à étudier des systèmes de localisation pour ces véhicules en utilisant des capteurs automobiles à faible coût. Trois types de capteurs sont considérés : des capteurs à l'estime qui existent déjà dans les automobiles modernes, des récepteurs GNSS mono-fréquence avec antenne patch et une caméra de détection de la voie regardant vers l’avant. Les cartes très précises sont également des composants clés pour la navigation des véhicules autonomes. Dans ce travail, une carte de marquage de voies avec une précision de l’ordre du décimètre est considérée. Le problème de la localisation est étudié dans un repère de travail local Est-Nord-Haut. En effet, les sorties du système de localisation sont utilisées en temps réel comme entrées dans un planificateur de trajectoire et un contrôleur de mouvement pour faire en sorte qu’un véhicule soit capable d'évoluer au volant de façon autonome à faible vitesse avec personne à bord. Ceci permet de développer des applications de voiturier autonome aussi appelées « valet de parking ». L'utilisation d'une caméra de détection de voie rend possible l’exploitation des informations de marquage de voie stockées dans une carte géoréférencée. Un module de détection de marquage détecte la voie hôte du véhicule et fournit la distance latérale entre le marquage de voie détecté et le véhicule. La caméra est également capable d'identifier le type des marquages détectés au sol (par exemple, de type continu ou pointillé). Comme la caméra donne des mesures relatives, une étape importante consiste à relier les mesures à l'état du véhicule. Un modèle d'observation raffiné de la caméra est proposé. Il exprime les mesures métriques de la caméra en fonction du vecteur d'état du véhicule et des paramètres des marquages au sol détectés. Cependant, l'utilisation seule d'une caméra a des limites. Par exemple, les marquages des voies peuvent être absents dans certaines parties de la zone de navigation et la caméra ne parvient pas toujours à détecter les marquages au sol, en particulier, dans les zones d’intersection. Un récepteur GNSS, qui est obligatoire pour le démarrage à froid, peut également être utilisé en continu dans le système de localisation multi-capteur du fait qu’il permet de compenser la dérive de l’estime. Les erreurs de positionnement GNSS ne peuvent pas être modélisées simplement comme des bruits blancs, en particulier avec des récepteurs mono-fréquence à faible coût travaillant de manière autonome, en raison des perturbations atmosphériques sur les signaux des satellites et les erreurs d’orbites. Un récepteur GNSS peut également être affecté par de fortes perturbations locales qui sont principalement dues aux multi-trajets. Cette thèse étudie des modèles formeurs de biais d’erreur GNSS qui sont utilisés dans le solveur de localisation en augmentant le vecteur d'état. Une variation brutale due à multi-trajet est considérée comme une valeur aberrante qui doit être rejetée par le filtre. Selon le flux d'informations entre le récepteur GNSS et les autres composants du système de localisation, les architectures de fusion de données sont communément appelées « couplage lâche » (positions et vitesses GNSS) ou « couplage serré » (pseudo-distance et Doppler sur les satellites en vue). Cette thèse étudie les deux approches. En particulier, une approche invariante selon la route est proposée pour gérer une modélisation raffinée de l'erreur GNSS dans l'approche par couplage lâche puisque la caméra ne peut améliorer la performance de localisation que dans la direction latérale de la route
Estimating the pose (position and attitude) in real-time is a key function for road autonomous vehicles. This thesis aims at studying vehicle localization performance using low cost automotive sensors. Three kinds of sensors are considered : dead reckoning (DR) sensors that already exist in modern vehicles, mono-frequency GNSS (Global navigation satellite system) receivers with patch antennas and a frontlooking lane detection camera. Highly accurate maps enhanced with road features are also key components for autonomous vehicle navigation. In this work, a lane marking map with decimeter-level accuracy is considered. The localization problem is studied in a local East-North-Up (ENU) working frame. Indeed, the localization outputs are used in real-time as inputs to a path planner and a motion generator to make a valet vehicle able to drive autonomously at low speed with nobody on-board the car. The use of a lane detection camera makes possible to exploit lane marking information stored in the georeferenced map. A lane marking detection module detects the vehicle’s host lane and provides the lateral distance between the detected lane marking and the vehicle. The camera is also able to identify the type of the detected lane markings (e.g., solid or dashed). Since the camera gives relative measurements, the important step is to link the measures with the vehicle’s state. A refined camera observation model is proposed. It expresses the camera metric measurements as a function of the vehicle’s state vector and the parameters of the detected lane markings. However, the use of a camera alone has some limitations. For example, lane markings can be missing in some parts of the navigation area and the camera sometimes fails to detect the lane markings in particular at cross-roads. GNSS, which is mandatory for cold start initialization, can be used also continuously in the multi-sensor localization system as done often when GNSS compensates for the DR drift. GNSS positioning errors can’t be modeled as white noises in particular with low cost mono-frequency receivers working in a standalone way, due to the unknown delays when the satellites signals cross the atmosphere and real-time satellites orbits errors. GNSS can also be affected by strong biases which are mainly due to multipath effect. This thesis studies GNSS biases shaping models that are used in the localization solver by augmenting the state vector. An abrupt bias due to multipath is seen as an outlier that has to be rejected by the filter. Depending on the information flows between the GNSS receiver and the other components of the localization system, data-fusion architectures are commonly referred to as loosely coupled (GNSS fixes and velocities) and tightly coupled (raw pseudoranges and Dopplers for the satellites in view). This thesis investigates both approaches. In particular, a road-invariant approach is proposed to handle a refined modeling of the GNSS error in the loosely coupled approach since the camera can only improve the localization performance in the lateral direction of the road. Finally, this research discusses some map-matching issues for instance when the uncertainty domain of the vehicle state becomes large if the camera is blind. It is challenging in this case to distinguish between different lanes when the camera retrieves lane marking measurements.As many outdoor experiments have been carried out with equipped vehicles, every problem addressed in this thesis is evaluated with real data. The different studied approaches that perform the data fusion of DR, GNSS, camera and lane marking map are compared and several conclusions are drawn on the fusion architecture choice
APA, Harvard, Vancouver, ISO, and other styles
25

Moody, Leigh. "Sensors, measurement fusion and missile trajectory optimisation." Thesis, Cranfield University; College of Defence Technology; Department of Aerospace, Power and Sensors, 2003. http://hdl.handle.net/1826/778.

Full text
Abstract:
When considering advances in “smart” weapons it is clear that air-launched systems have adopted an integrated approach to meet rigorous requirements, whereas air-defence systems have not. The demands on sensors, state observation, missile guidance, and simulation for air-defence is the subject of this research. Historical reviews for each topic, justification of favoured techniques and algorithms are provided, using a nomenclature developed to unify these disciplines. Sensors selected for their enduring impact on future systems are described and simulation models provided. Complex internal systems are reduced to simpler models capable of replicating dominant features, particularly those that adversely effect state observers. Of the state observer architectures considered, a distributed system comprising ground based target and own-missile tracking, data up-link, and on-board missile measurement and track fusion is the natural choice for air-defence. An IMM is used to process radar measurements, combining the estimates from filters with different target dynamics. The remote missile state observer combines up-linked target tracks and missile plots with IMU and seeker data to provide optimal guidance information. The performance of traditional PN and CLOS missile guidance is the basis against which on-line trajectory optimisation is judged. Enhanced guidance laws are presented that demand more from the state observers, stressing the importance of time-to-go and transport delays in strap-down systems employing staring array technology. Algorithms for solving the guidance twopoint boundary value problems created from the missile state observer output using gradient projection in function space are presented. A simulation integrating these aspects was developed whose infrastructure, capable of supporting any dynamical model, is described in the air-defence context. MBDA have extended this work creating the Aircraft and Missile Integration Simulation (AMIS) for integrating different launchers and missiles. The maturity of the AMIS makes it a tool for developing pre-launch algorithms for modern air-launched missiles from modern military aircraft.
APA, Harvard, Vancouver, ISO, and other styles
26

Litant, Thomas F. "The fusion and integration of virtual sensors." W&M ScholarWorks, 2002. https://scholarworks.wm.edu/etd/1539623397.

Full text
Abstract:
There are numerous sensors from which to choose when designing a mobile robot: ultrasonic, infrared, radar, or laser range finders, video, collision detectors, or beacon based systems such as the Global Positioning System. In order to meet the need for reliability, accuracy, and fault tolerance, mobile robot designers often place multiple sensors on the same platform, or combine sensor data from multiple platforms. The combination of the data from multiple sensors to improve reliability, accuracy, and fault tolerance is termed Sensor Fusion.;The types of robotic sensors are as varied as the properties of the environment that need to be sensed. to reduce the complexity of system software, Roboticists have found it highly desirable to adopt a common interface between each type of sensor and the system responsible for fusing the information. The process of abstracting the essential properties of a sensor is called Sensor Virtualization.;Sensor virtualization to date has focused on abstracting the properties shared by sensors of the same type. The approach taken by T. Henderson is simply to expose to the fusion system only the data from the sensor, along with a textual label describing the sensor. We extend Henderson's work in the following manner. First, we encapsulate both the fusion algorithm and the interface layer in the virtual sensor. This allows us to build multi-tiered virtual sensor hierarchies. Secondly, we show how common fusion algorithms can be encapsulated in the virtual sensor, facilitating the integration and replacement of both physical and virtual sensors. Finally, we provide a physical proof of concept using monostatic sonars, vector sonars, and a laser range-finder.
APA, Harvard, Vancouver, ISO, and other styles
27

Makhoul, Abdallah. "Réseaux de capteurs : localisation, couverture et fusion de données." Besançon, 2008. http://www.theses.fr/2008BESA2025.

Full text
Abstract:
Les recherches présentées dans ce mémoire s'inscrivent dans le cadre des réseaux de capteurs. Elles portent sur l'étude et la mise en oeuvre d'algorithmes distribués pour différentes problématiques dans les réseaux de capteurs (localisation, couverture, fusion de données, etc. ). La localisation sert à trouver les positions des nœuds suite à un déploiement aléatoire. Elle est nécessaire pour pouvoir localiser les évènements. Dans ce mémoire, nous introduisons une nouvelle approche de localisation fondée sur l'utilisation d'une ancre mobile. La nouveauté de notre approche réside dans la définition d'une trajectoire prédéfinie couplée à un algorithme de très faible complexité. Dans un second lieu, nous exploitons l'utilisation de l'ancre mobile pour pouvoir ordonner les nœuds dans des ensembles d'activation disjoints, de telle sorte qu'ils puissent économiser leur énergie tout en observant correctement leur environnement. Cet ordonnancement d'activation est connu par le problème de couverture. Nous présentons quatre types d'ordonnancement différents. La troisième partie de ce mémoire traite de la problématique de fusion des données. Pour évaluer la moyenne des données mesurées par un ensemble de capteurs en réseau, nous avons conçu un algorithme itératif asynchrone, en adaptant des techniques développées dans le domaine de l'équilibrage de charge. Cet algorithme est entièrement décentralisé et nous avons montré sa convergence, ainsi que sa tolérance à des variations de topologie du réseau. Enfin, toutes les approches proposées ont fait l'objet d'études de performances approfondies au travers de simulation (OMNeT ++) et comparées aux approches existantes dans la littérature
This thesis tackles the problems of localization, coverage and data fusion in randomly deployed sensor networks. First, we introduce a novel approach for node's localization. It is based on a single mobile beacon aware of its positions. Sensor nodes receiving beacon packets will be able to locate themselves. The mobile beacon follows a defined Hilbert curve. On the other hand, we exploit the localization phase to construct sets of active nodes that ensure as much as possible the zone coverage. To optimize the energy consumption, we construct disjoint sets of active nodes such that only one of them is active at any moment, while ensuring at the same time both the network connectivity and the area coverage. We present and study four different scheduling methods. Ln a third step, we study the problem of data fusion in sensor networks in particular the" average consensus" problem. It allows the nodes of a sensor network to track the average of n sensor measurements. To compute the average, we propose an iterative asynchronous algorithm that is robust to the dynamic topology changes and the loss of messages. To show the effectiveness of the proposed algorithms, we conducted series of simulations based on OMNet++
APA, Harvard, Vancouver, ISO, and other styles
28

Ndjeng, Ndjeng Alexandre. "Localisation robuste multi-capteurs et multi-modèles." Thesis, Evry-Val d'Essonne, 2009. http://www.theses.fr/2009EVRY0013/document.

Full text
Abstract:
De nombreux travaux de recherches sont menés depuis quelques années dans le but de fournir une solution précise et intègre au problème de la localisation de véhicules routiers. Ces recherches sont en majorité fondées sur la théorie probabiliste de l’estimation. Elles utilisent la fusion multi-capteurs et le filtrage de Kalman mono-modèle, au travers de variantes adaptées aux systèmes non linéaires ; l’unique modèle complexe étant supposé décrire toute la dynamique du véhicule. Nous proposons dans cette thèse une approche multi-modèles. Cette étude dérive d’une analyse modulaire de la dynamique du véhicule, c’est-à-dire que l’espace d’évolution est pris comme un espace discret : plusieurs modèles simples et dédiés chacun à une manœuvre particulière sont générés, ce qui améliore la robustesse face aux défauts de modélisation du système. Il s’agit d’une variante de l’algorithme IMM, qui prend en compte l’asynchronisme des capteurs embarqués dans le processus d’estimation de l’état du véhicule. Pour cela, une nouvelle modélisation sous contraintes est développée, ce qui permet de mettre à jour la vraisemblance des modèles intégrés même en l’absence de mesures provenant de capteurs extéroceptifs. Toutefois, la performance d’un tel système nécessite d’utiliser des données capteurs de bonne qualité. Plusieurs opérations sont présentées, illustrant la correction du biais des capteurs, des bruits de mesures ainsi que la prise en compte de l’angle de dévers de la chaussée. La méthodologie développée est validée à travers une comparaison avec les algorithmes de fusion probabilistes EKF, UKF, DD1, DD2 et le filtrage particulaire. Cette comparaison est fondée sur des mesures courantes de précision et de confiance, puis sur l’utilisation de critères statistiques de consistance et de crédibilité, à partir de scénarios synthétiques et ensuite des données réelles
Many research works have been devoted in the last years in order to provide an accurate and high integrity solution to the problem outdoor vehicles localization. These research efforts are mainly based on the probability estimation theory. They use multi-sensor fusion approach and a single-model based Kalman filtering, through some variants adapted to nonlinear systems. The single complex model that is used is assumed to describe the dynamics of the vehicle. We rather propose a multiple model approach in this thesis. The presented study derives from a modular analysis of the dynamics of the vehicle, ie the evolution of the vehicle is considered as a discrete process, which combines several simple models. Each model is dedicated to a particular manoeuvre of the vehicle. This evolution space discretizing will improves the system robustness to modelling defects. Our approach is a variant of the IMM algorithm, which takes into account the asynchronism of the embedded sensors. In order to achieve this goal, a new system constrained modelling is developed, which allows to update the various models likelihood even in absence of exteroceptive sensors. However, the performance of such a system requires the use of good quality data. Several operations are presented, illustrating the corrections on the sensors bias, measurements noise and taking into account the road bank angle. The developed methodology is validated through a comparison with the probabilistic fusion algorithms EKF, UKF, DD1, DD2 and particle filtering. This comparison is based on measurements of accuracy and confidence, then the use of statistical consistency and credibility measures, from simulation scenarios and then real data
APA, Harvard, Vancouver, ISO, and other styles
29

Barro, Alessandro. "Indirect TPMS improvement: sensor fusion with ultrasound parking sensors." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23765/.

Full text
Abstract:
Pre-feasibility analysis on the optimization of the performance of the indirect tyre pressure monitoring system through a sensor fusion with a new generation of ultrasound parking sensors: from the idea to the development of macro project specifications and macro business case, with definition of the possible new scenario in terms of performance, costs and perceived quality
APA, Harvard, Vancouver, ISO, and other styles
30

Marin, Giulio. "3D data fusion from multiple sensors and its applications." Doctoral thesis, Università degli studi di Padova, 2017. http://hdl.handle.net/11577/3425367.

Full text
Abstract:
The introduction of depth cameras in the mass market contributed to make computer vision applicable to many real world applications, such as human interaction in virtual environments, autonomous driving, robotics and 3D reconstruction. All these problems were originally tackled by means of standard cameras, but the intrinsic ambiguity in the bidimensional images led to the development of depth cameras technologies. Stereo vision was first introduced to provide an estimate of the 3D geometry of the scene. Structured light depth cameras were developed to use the same concepts of stereo vision but overcome some of the problems of passive technologies. Finally, Time-of-Flight (ToF) depth cameras solve the same depth estimation problem by using a different technology. This thesis focuses on the acquisition of depth data from multiple sensors and presents techniques to efficiently combine the information of different acquisition systems. The three main technologies developed to provide depth estimation are first reviewed, presenting operating principles and practical issues of each family of sensors. The use of multiple sensors then is investigated, providing practical solutions to the problem of 3D reconstruction and gesture recognition. Data from stereo vision systems and ToF depth cameras are combined together to provide a higher quality depth map. A confidence measure of depth data from the two systems is used to guide the depth data fusion. The lack of datasets with data from multiple sensors is addressed by proposing a system for the collection of data and ground truth depth, and a tool to generate synthetic data from standard cameras and ToF depth cameras. For gesture recognition, a depth camera is paired with a Leap Motion device to boost the performance of the recognition task. A set of features from the two devices is used in a classification framework based on Support Vector Machines and Random Forests.
L'introduzione di sensori di profondità nel mercato di massa ha contribuito a rendere la visione artificiale applicabile in molte applicazioni reali, come l'interazione dell'uomo in ambienti virtuali, la guida autonoma, la robotica e la ricostruzione 3D. Tutti questi problemi sono stati originariamente affrontati con l'utilizzo di normali telecamere ma l'ambiguità intrinseca delle immagini bidimensionali ha portato allo sviluppo di tecnologie per sensori di profondità. La visione stereoscopica è stata la prima tecnologia a permettere di stimare la geometria tridimensionale della scena. Sensori a luce strutturata sono stati sviluppati per sfruttare gli stessi principi della visione stereoscopica ma risolvere alcuni problemi dei dispositivi passivi. Infine i sensori a tempo di volo cercano di risolvere lo stesso problema di stima della distanza utilizzando una differente tecnologia. Questa tesi si focalizza nell'acquisizione di dati di profondità da diversi sensori e presenta tecniche per combinare efficacemente le informazioni dei diversi sistemi di acquisizione. Per prima cosa le tre principali tecnologie sviluppate per fornire una stima di profondità sono esaminate in dettaglio, presentando i principi di funzionamento e i problemi dei diversi sistemi. Successivamente è stato studiato l'utilizzo congiunto di sensori, fornendo delle soluzioni pratiche al problema della ricostruzione 3D e del riconoscimento dei gesti. I dati di un sistema stereoscopico e di un sensore a tempo di volo sono stati combinati per fornire una mappa di profondità più precisa. Per ognuno dei due sensori sono state sviluppate delle mappe di confidenza utilizzate per controllare la fusione delle mappe di profondità. La mancanza di collezioni con dati di diversi sensori è stato affrontato proponendo un sistema per la collezione di dati da diversi sensori e la generazione di mappe di profondità molto precise, oltre ad un sistema per la generazioni di dati sintetici per sistemi stereoscopici e sensori a tempo di volo. Per il problema del riconoscimento dei gesti è stato sviluppato un sistema per l'utilizzo congiunto di un sensore di profondità e un sensore Leap Motion, per migliorare le prestazioni dell'attività riconoscimento. Un insieme di descrittori ricavato dai due sistemi è stato utilizzato per la classificazione dei gesti con un sistema basato su Support Vector Machines e Random Forests.
APA, Harvard, Vancouver, ISO, and other styles
31

Dickinson, Victoria Jane. "The cloning and subcellular localisation of maize streak virus ORF V1." Thesis, University of Hull, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.321050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Ekwevugbe, Tobore. "Advanced occupancy measurement using sensor fusion." Thesis, De Montfort University, 2013. http://hdl.handle.net/2086/10103.

Full text
Abstract:
With roughly about half of the energy used in buildings attributed to Heating, Ventilation, and Air conditioning (HVAC) systems, there is clearly great potential for energy saving through improved building operations. Accurate knowledge of localised and real-time occupancy numbers can have compelling control applications for HVAC systems. However, existing technologies applied for building occupancy measurements are limited, such that a precise and reliable occupant count is difficult to obtain. For example, passive infrared (PIR) sensors commonly used for occupancy sensing in lighting control applications cannot differentiate between occupants grouped together, video sensing is often limited by privacy concerns, atmospheric gas sensors (such as CO2 sensors) may be affected by the presence of electromagnetic (EMI) interference, and may not show clear links between occupancy and sensor values. Past studies have indicated the need for a heterogeneous multi-sensory fusion approach for occupancy detection to address the short-comings of existing occupancy detection systems. The aim of this research is to develop an advanced instrumentation strategy to monitor occupancy levels in non-domestic buildings, whilst facilitating the lowering of energy use and also maintaining an acceptable indoor climate. Accordingly, a novel multi-sensor based approach for occupancy detection in open-plan office spaces is proposed. The approach combined information from various low-cost and non-intrusive indoor environmental sensors, with the aim to merge advantages of various sensors, whilst minimising their weaknesses. The proposed approach offered the potential for explicit information indicating occupancy levels to be captured. The proposed occupancy monitoring strategy has two main components; hardware system implementation and data processing. The hardware system implementation included a custom made sound sensor and refinement of CO2 sensors for EMI mitigation. Two test beds were designed and implemented for supporting the research studies, including proof-of-concept, and experimental studies. Data processing was carried out in several stages with the ultimate goal being to detect occupancy levels. Firstly, interested features were extracted from all sensory data collected, and then a symmetrical uncertainty analysis was applied to determine the predictive strength of individual sensor features. Thirdly, a candidate features subset was determined using a genetic based search. Finally, a back-propagation neural network model was adopted to fuse candidate multi-sensory features for estimation of occupancy levels. Several test cases were implemented to demonstrate and evaluate the effectiveness and feasibility of the proposed occupancy detection approach. Results have shown the potential of the proposed heterogeneous multi-sensor fusion based approach as an advanced strategy for the development of reliable occupancy detection systems in open-plan office buildings, which can be capable of facilitating improved control of building services. In summary, the proposed approach has the potential to: (1) Detect occupancy levels with an accuracy reaching 84.59% during occupied instances (2) capable of maintaining average occupancy detection accuracy of 61.01%, in the event of sensor failure or drop-off (such as CO2 sensors drop-off), (3) capable of utilising just sound and motion sensors for occupancy levels monitoring in a naturally ventilated space, (4) capable of facilitating potential daily energy savings reaching 53%, if implemented for occupancy-driven ventilation control.
APA, Harvard, Vancouver, ISO, and other styles
33

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Full text
Abstract:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
APA, Harvard, Vancouver, ISO, and other styles
34

Charmette, Baptiste. "Localisation temps-réel d'un robot par vision monoculaire et fusion multicapteurs." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00828573.

Full text
Abstract:
Ce mémoire présente un système de localisation par vision pour un robot mobile circulant dans un milieu urbain. Pour cela, une première phase d'apprentissage où le robot est conduit manuellement est réalisée pour enregistrer une séquence vidéo. Les images ainsi acquises sont ensuite utilisées dans une phase hors ligne pour construire une carte 3D de l'environnement. Par la suite, le véhicule peut se déplacer dans la zone, de manière autonome ou non, et l'image reçue par la caméra permet de le positionner dans la carte. Contrairement aux travaux précédents, la trajectoire suivie peut être différente de la trajectoire d'apprentissage. L'algorithme développé permet en effet de conserver la localisation malgré des changements de point de vue importants par rapport aux images acquises initialement. Le principe consiste à modéliser les points de repère sous forme de facettes localement planes, surnommées patchs plan, dont l'orientation est connue. Lorsque le véhicule se déplace, une prédiction de la position courante est réalisée et la déformation des facettes induite par le changement de point de vue est reproduite. De cette façon la recherche des amers revient à comparer des images pratiquement identiques, facilitant ainsi leur appariement. Lorsque les positions sur l'image de plusieurs amers sont connues, la connaissance de leur position 3D permet de déduire la position du robot. La transformation de ces patchs plan est complexe et demande un temps de calcul important, incompatible avec une utilisation temps-réel. Pour améliorer les performances de l'algorithme, la localisation a été implémentée sur une architecture GPU offrant de nombreux outils permettant d'utiliser cet algorithme avec des performances utilisables en temps-réel. Afin de prédire la position du robot de manière aussi précise que possible, un modèle de mouvement du robot a été mis en place. Il utilise, en plus de la caméra, les informations provenant des capteurs odométriques. Cela permet d'améliorer la prédiction et les expérimentations montrent que cela fournit une plus grande robustesse en cas de pertes d'images lors du traitement. Pour finir ce mémoire détaille les différentes performances de ce système à travers plusieurs expérimentations en conditions réelles. La précision de la position a été mesurée en comparant la localisation avec une référence enregistrée par un GPS différentiel.
APA, Harvard, Vancouver, ISO, and other styles
35

Arnould, Philippe. "Étude de la localisation d'un robot mobile par fusion de données." Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL095N.

Full text
Abstract:
Les travaux présentes, dans ce mémoire, concernent l'étude de la localisation d'un véhicule autonome à partir d'informations provenant d'un odomètre et d'un magnétomètre. Le but est d'obtenir des informations de positions et de cap suffisamment fiables et précises pour envisager la navigation du véhicule sur une distance la plus longue possible entre deux recalages par rapport à l'environnement. Afin de tirer partie au mieux des informations disponibles, des techniques de fusion de données multicapteurs ont été élaborées. Elles permettent de s'affranchir de la plupart des défauts intrinsèques à chaque capteur pris individuellement. Deux méthodes ont été étudiées et testées: une méthode de fusion par discrimination de l'orientation où l'on compare en permanence l'incertitude des deux capteurs et une méthode de fusion par filtrage de Kalman. Les résultats obtenus sur des parcours types avec la deuxième méthode notamment montrent que l'erreur de position en fin de parcours est ramenée à 0,5% de la distance parcourue. L'utilisation de telles techniques rend possible la navigation sans recalage sur des distances de quelques dizaines de mètres de 100 mètres suivant la précision requise
APA, Harvard, Vancouver, ISO, and other styles
36

Wong, Charence Cheuk Lun. "Fusion of wearable and visual sensors for human motion analysis." Thesis, Imperial College London, 2015. http://hdl.handle.net/10044/1/28630.

Full text
Abstract:
Human motion analysis is concerned with the study of human activity recognition, human motion tracking, and the analysis of human biomechanics. Human motion analysis has applications within areas of entertainment, sports, and healthcare. For example, activity recognition, which aims to understand and identify different tasks from motion can be applied to create records of staff activity in the operating theatre at a hospital; motion tracking is already employed in some games to provide an improved user interaction experience and can be used to study how medical staff interact in the operating theatre; and human biomechanics, which is the study of the structure and function of the human body, can be used to better understand athlete performance, pathologies in certain patients, and assess the surgical skill of medical staff. As health services strive to improve the quality of patient care and meet the growing demands required to care for expanding populations around the world, solutions that can improve patient care, diagnosis of pathology, and the monitoring and training of medical staff are necessary. Surgical workflow analysis, for example, aims to assess and optimise surgical protocols in the operating theatre by evaluating the tasks that staff perform and measurable outcomes. Human motion analysis methods can be used to quantify the activities and performance of staff for surgical workflow analysis; however, a number of challenges must be overcome before routine motion capture of staff in an operating theatre becomes feasible. Current commercial human motion capture technologies have demonstrated that they are capable of acquiring human movement with sub-centimetre accuracy; however, the complicated setup procedures, size, and embodiment of current systems make them cumbersome and unsuited for routine deployment within an operating theatre. Recent advances in pervasive sensing have resulted in camera systems that can detect and analyse human motion, and small wear- able sensors that can measure a variety of parameters from the human body, such as heart rate, fatigue, balance, and motion. The work in this thesis investigates different methods that enable human motion to be more easily, reliably, and accurately captured through ambient and wearable sensor technologies to address some of the main challenges that have limited the use of motion capture technologies in certain areas of study. Sensor embodiment and accuracy of activity recognition is one of the challenges that affect the adoption of wearable devices for monitoring human activity. Using a single inertial sensor, which captures the movement of the subject, a variety of motion characteristics can be measured. For patients, wearable inertial sensors can be used in long-term activity monitoring to better understand the condition of the patient and potentially identify deviations from normal activity. For medical staff, inertial sensors can be used to capture tasks being performed for automated workflow analysis, which is useful for staff training, optimisation of existing processes, and early indications of complications within clinical procedures. Feature extraction and classification methods are introduced in thesis that demonstrate motion classification accuracies of over 90% for five different classes of walking motion using a single ear-worn sensor. To capture human body posture, current capture systems generally require a large number of sensors or reflective reference markers to be worn on the body, which presents a challenge for many applications, such as monitoring human motion in the operating theatre, as they may restrict natural movements and make setup complex and time consuming. To address this, a method is proposed, which uses a regression method to estimate motion using a subset of fewer wearable inertial sensors. This method is demonstrated using three sensors on the upper body and is shown to achieve mean estimation accuracies as low as 1.6cm, 1.1cm, and 1.4cm for the hand, elbow, and shoulders, respectively, when compared with the gold standard optical motion capture system. Using a subset of three sensors, mean errors for hand position reach 15.5cm. Unlike human motion capture systems that rely on vision and reflective reference point markers, commonly known as marker-based optical motion capture, wearable inertial sensors are prone to inaccuracies resulting from an accumulation of inaccurate measurements, which becomes increasingly prevalent over time. Two methods are introduced in this thesis, which aim to solve this challenge using visual rectification of the assumed state of the subject. Using a ceiling-mounted camera, a human detection and human motion tracking method is introduced to improve the average mean accuracy of tracking to within 5.8cm in a laboratory of 3m x 5m. To improve the accuracy of capturing the position of body parts and posture for human biomechanics, a camera is also utilised to track the body part movements and provide visual rectification of human pose estimates from inertial sensing. For most subjects, deviations of less than 10% from the ground truth are achieved for hand positions, which exhibit the greatest error, and the occurrence of sources of other common visual and inertial estimation errors, such as measurement noise, visual occlusion, and sensor calibration are shown to be reduced.
APA, Harvard, Vancouver, ISO, and other styles
37

Ansari, Abdul Wahab. "The control simulation of tactile sensors using constraint modelling techniques." Thesis, Brunel University, 1993. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.357684.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Wood, Graham. "Micro-sensors utilising the mode-localisation effect in electrostatically coupled MEMS resonators." Thesis, University of Southampton, 2016. https://eprints.soton.ac.uk/400147/.

Full text
Abstract:
In response to a perturbation, the stiffness or mass of a MEMS resonator can change and previous research has utilised the resonant frequency shift to characterise the perturbation, be it strain or acceleration altering the resonator stiffness or the attachment of a biological element altering the resonator mass. More recently, research has focused on developing MEMS resonator sensors based on the mode-localisation effect, which is the name given to the effect where the mode shapes of an electrostatically coupled system are seen to 'localise' around one of the resonators when the stiff?ness or mass of one changes. By measuring the change in the mode shape of a coupled system, it is possible to achieve a greater sensitivity to a perturbation than by simply measuring the change in resonant frequency of a one degree-of-freedom system. Building on the previously reported work, the design, fabrication and characterisation of various designs and dimensions of coupled MEMS resonator devices has been performed, with the aim of experimentally determining the influence of the design and dimensions on the device sensitivity. A high-yield dicing-free silicon-on-insulator based process has been used to fabricate electrostatically-coupled MEMS resonator pairs with a thickness of 50 um. For a design consisting of two 410 um long rectangular clamped-clamped beams, the sensitivity of the amplitude ratio at the in-phase mode shape has been increased up to 12 times by increasing the beam width from 10 um to 20 um. A second design, featuring a larger 310 x 60 um rectangular block at the centre of the resonator, has shown a sensitivity up to 3.26 times greater than for the clamped-clamped beams and up to 9 times greater than the state-of-art, with reducing the anchor beam lengths down to 55 ?m proving to be critical. Other devices fabricated with an alternative SOI-based process showed stiffness sensitivity up to 46 times greater than the state-of-the-art, but with the drawback that the fabrication process is of a much lower yield. Finally, through removal of up to 3.39 ng of material with a focused ion beam, mass sensing has been demonstrated with a coupled-resonator device, with a 5.4 times greater amplitude ratio response compared to the best value in the literature.
APA, Harvard, Vancouver, ISO, and other styles
39

Hucks, John A. "Fusion of ground-based sensors for optimal tracking of military targets." Thesis, Monterey, California. Naval Postgraduate School, 1989. http://hdl.handle.net/10945/27067.

Full text
Abstract:
Extended Kalman filtering is applied as an extension of the Position Location Reporting System (PLRS) to track a moving target in the XY plane. The application uses four sets of observables which correspond to inputs from a fused-sensor array where the sensors employed are acoustic, seismic, or radar. The nonlinearities to the Kalman filter occur through the measured observables which are: bearings to the target only, ranges to the target only, bearings and ranges to the target, and a Doppler-shifted frequency accompanied by the bearing to that frequency. The observables are nonlinear in their relationships to the Cartesian coordinate states of the filter. Filter error covariances are portrayed as error ellipsoids about the laser target estimate made by the filter. Rotation of the ellipsoids is accomplished to avoid the cross correlation of the coordinates. The ellipsoids employed are one standard of deviation in the rotated coordinate system and correspond to a constant of probability of target location about the latest Kalman target estimate. Filtering techniques are evaluated for both stationary and moving observers with arbitrarily moving targets. The objective of creating a user-friendly, personal computer based tracking algorithm is also discussed
APA, Harvard, Vancouver, ISO, and other styles
40

Nowakowski, Mathieu. "Localisation d'un robot humanoïde en milieu intérieur non-contraint." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM026/document.

Full text
Abstract:
Après la démocratisation des robots industriels, la tendance actuelle est au développement de robots sociaux dont la fonction principale est l'interaction avec ses utilisateurs. Le déploiement de telles plate-formes dans des boutiques, des musées ou des gares relance différentes problématiques dont celle de la localisation pour les robots mobiles. Cette thèse traite ainsi de la localisation du robot Pepper en milieu intérieur non-contraint. Présent dans de nombreuses boutiques au Japon, Pepper est utilisé par des personnes non-expertes et doit donc être le plus autonome possible. Cependant, les solutions de localisation autonome de la littérature souffrent des limitations de la plate-forme. Les travaux de cette thèse s'articulent autour de deux grands axes. D'abord, le problème de la relocalisation dans un environnement visuellement redondant est étudié. La solution proposée consiste à combiner la vision et le Wi-Fi dans une approche probabiliste basée sur l'apparence. Ensuite, la question de la création d'une carte métrique cohérente est approfondie. Pour compenser les nombreuses pertes de suivi d'amers visuels causées par une fréquence d'acquisition basse, des contraintes odométriques sont ajoutées à une optimisation par ajustement de faisceaux. Ces solutions ont été testées et validées sur plusieurs robots Pepper à partir de données collectées dans différents environnements intérieurs sur plus de 7 km
After the democratization of industrial robots, the current trend is the development of social robots that create strong interactions with their users. The deployment of such platforms in shops, museums or train stations raises various issues including the autonomous localization of mobile robots. This thesis focuses on the localization of Pepper robots in a non-constrained indoor environment. Pepper robots are daily used in many shops in Japan and must be as autonomous as possible. However, localization solutions in the literature suffer from the limitations of the platform. This thesis is split into two main themes. First, the problem of relocalization in a visually redundant environment is studied. The proposed solution combines vision and Wi-Fi in a probabilistic approach based on the appearance. Then, the question of a consistent metrical mapping is examined. In order to compensate the numerous losses of tracking caused by the low acquisition frequency, odometric constraints are added to a bundle adjustment optimization. These solutions have been tested and validated on several Pepper robots, from data collected in different indoor environments over more than 7 km
APA, Harvard, Vancouver, ISO, and other styles
41

Bercier, Yanic. "A multimodality image fusion and localisation system for radiosurgery treatments of arteriovenous malformations /." Thesis, McGill University, 2000. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=33379.

Full text
Abstract:
A multimodality image fusion and localisation system for radiosurgery treatments of arteriovenous malformations (AVM) has been developed and validated. Within this system, three-dimensional magnetic resonance angiography (MRA) and two-dimensional digital subtraction angiography (DSA) vasculature information is combined with three-dimensional magnetic resonance (MR) and/or computed tomography (CT) anatomical information in order to benefit from the functionality of all modalities. MRA/MR/CT datasets are fused, and linked to the DSA images. The consistency of the linking procedure is verified by correlation of the DSA images with two-dimensional ray-traced projections of the MRA datasets. Organ contours are drawn on the MRA images, simultaneously visualised on their MR/CT counterparts, and projected onto the DSA images for visual feedback. This procedure allows users to incorporate both vascular and anatomical information in the three-dimensional target localisation and delineation process. Patient examples illustrating the utility of the system are presented.
APA, Harvard, Vancouver, ISO, and other styles
42

Tsesmetzis, Nicolaos. "A systematic screen for subcellular protein localisation using a GFP::cDNA fusion library." Thesis, University of East Anglia, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.273519.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Daunizeau, Jean. "Localisation et dynamique des sources d'activité cérébrale par fusion d'informations multimodales EEG/IRMf." Paris 11, 2005. http://www.theses.fr/2005PA112204.

Full text
Abstract:
Fusionner les informations issues des données d'électroencéphalographie (EEG) et d'imagerie par résonance magnétique fonctionnelle (IRMf) permettrait une meilleure caractérisation spatio-temporelle de l'activité cérébrale. Prenant en compte l'éventuel découplage entre les activités bioélectrique et hémodynamique, nous avons développé trois modèles graphiques hiérarchiques associés à des procédures d'inférence bayésienne :-Un modèle de génération des données EEG encapsulant toute l'information physiologique disponible sur la structure attendue des sources d'activité cérébrale. Ce modèle de mélange de sources étendues recompose l'information de l'EEG et définit le profil spatial de l'activité, analogue des cartes d'activation issues de l'IRMf (fusion comparée). -Une méthode quantifiant la pertinence de tout a priori issu de l'IRMf que l'on envisage d'introduire dans la résolution du problème inverse EEG. Nous pouvons ainsi décider si les sources d'activité vues par l'IRMf auraient pu, ou pas, générer les données EEG et, ainsi, choisir entre les solutions du problème inverse contrainte et non contrainte par l'IRMf (fusion contrainte). -Un modèle de génération des données conjointes EEG/IRMf, via la définition du substrat commun des sources de l'EEG et de l'IRMf s'appuyant sur la décomposition spatio-temporelle du modèle de mélange de sources étendues. Ce modèle de réponses spatialement concordantes généralise les deux premières approches (fusion conjointe) et identifie les sources actives bioélectriquement et hémodynamiquement. Ces modèles ont été évalués sur données simulées et validés sur données réelles dans le contexte de la caractérisation du réseau épileptogène
Combining electroencephalography (EEG) and functional Magnetic Resonance Imaging (fMRI) should enable better characterization of brain activity in both space and time. To do so, the potential decoupling between haemodynamic and bioelectric must be accounted for. Therefore, we proposed three graphical and hierarchical models, associated with Bayesian inference processes:-Compared fusion: an EEG data generative model that introduces all available and physiologically plausible information about the expected structure of bioelectric activity. The extended sources mixing model provides a specific feature that can be compared with fMRI activation maps: the spatial profile of the bioelectric sources. -Constrained fusion: a method to assess the relevance of any informative fMRI-derived prior that is to be included in the resolution of the EEG inverse problem. By quantifying the adequacy between EEG data and fMRI active sources, this approach allows us to decide whether the fMRI-based informative prior should, or not, be introduced in the resolution of the EEG inverse problem. -Symmetrical fusion: a joint EEG/fMRI data generative model, which defines spatially concordant (bioelectric and haemodynamic) responses. Based on the spatio-temporal decomposition of the extended sources mixing model, this approach defines the spatial substrate common to EEG and fMRI activity sources. This extends both previous approaches, and allows us to identify the areas of strong coupling between bioelectric and haemodynamic activities. The three approaches were extensively evaluated on simulated data and validated on real patient data in the context of epileptogenic network characterization
APA, Harvard, Vancouver, ISO, and other styles
44

Ollander, Simon. "Wearable Sensor Data Fusion for Human Stress Estimation." Thesis, Linköpings universitet, Reglerteknik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-122348.

Full text
Abstract:
With the purpose of classifying and modelling stress, different sensors, signal features, machine learning methods, and stress experiments have been compared. Two databases have been studied: the MIT driver stress database and a new experimental database, where three stress tasks have been performed for 9 subjects: the Trier Social Stress Test, the Socially Evaluated Cold Pressor Test and the d2 test, of which the latter is not classically used for generating stress. Support vector machine, naive Bayes, k-nearest neighbor and probabilistic neural network classification techniques were compared, with support vector machines achieving the highest performance in general (99.5 ±0.6 %$on the driver database and 91.4 ± 2.4 % on the experimental database). For both databases, relevant features include the mean of the heart rate and the mean of the galvanic skin response, together with the mean of the absolute derivative of the galvanic skin response signal. A new feature is also introduced with great performance in stress classification for the driver database. Continuous models for estimating stress levels have also been developed, based upon the perceived stress levels given by the subjects during the experiments, where support vector regression is more accurate than linear and variational Bayesian regression.
I syfte att klassificera och modellera stress har olika sensorer, signalegenskaper, maskininlärningsmetoder och stressexperiment jämförts. Två databaser har studerats: MIT:s förarstressdatabas och en ny databas baserad på egna experiment, där stressuppgifter har genomförts av nio försökspersoner: Trier Social Stress Test,  Socially Evaluated Cold Pressor Test och d2-testet, av vilka det sistnämnda inte normalt används för att generera stress. Support vector machine-, naive Bayes-, k-nearest neighbour- och probabilistic neural network-algoritmer har jämförts, av vilka support vector machine har uppnått den högsta prestandan i allmänhet (99.5 ± 0.6 % på förardatabasen, 91.4 ± 2.4 %  på experimenten). För båda databaserna har signalegenskaper såsom medelvärdet av hjärtrytmen och hudens ledningsförmåga, tillsammans med medelvärdet av beloppet av hudens ledningsförmågas derivata identifierats som relevanta. En ny signalegenskap har också introducerats, med hög prestanda i stressklassificering på förarstressdatabasen. En kontinuerlig modell har också utvecklats, baserad på den upplevda stressnivån angiven av försökspersonerna under experimenten, där support vector regression har uppnått bättre resultat än linjär regression och variational Bayesian regression.
APA, Harvard, Vancouver, ISO, and other styles
45

Hol, Jeroen D. "Sensor Fusion and Calibration of Inertial Sensors, Vision, Ultra-Wideband and GPS." Doctoral thesis, Linköpings universitet, Reglerteknik, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-66184.

Full text
Abstract:
The usage of inertial sensors has traditionally been confined primarily to the aviation and marine industry due to their associated cost and bulkiness. During the last decade, however, inertial sensors have undergone a rather dramatic reduction in both size and cost with the introduction of MEMS technology. As a result of this trend, inertial sensors have become commonplace for many applications and can even be found in many consumer products, for instance smart phones, cameras and game consoles. Due to the drift inherent in inertial technology, inertial sensors are typically used in combination with aiding sensors to stabilize andimprove the estimates. The need for aiding sensors becomes even more apparent due to the reduced accuracy of MEMS inertial sensors. This thesis discusses two problems related to using inertial sensors in combination with aiding sensors. The first is the problem of sensor fusion: how to combine the information obtained from the different sensors and obtain a good estimate of position and orientation. The second problem, a prerequisite for sensor fusion, is that of calibration: the sensors themselves have to be calibrated and provide measurement in known units. Furthermore, whenever multiple sensors are combined additional calibration issues arise, since the measurements are seldom acquired in the same physical location and expressed in a common coordinate frame. Sensor fusion and calibration are discussed for the combination of inertial sensors with cameras, UWB or GPS. Two setups for estimating position and orientation in real-time are presented in this thesis. The first uses inertial sensors in combination with a camera; the second combines inertial sensors with UWB. Tightly coupled sensor fusion algorithms and experiments with performance evaluation are provided. Furthermore, this thesis contains ideas on using an optimization based sensor fusion method for a multi-segment inertial tracking system used for human motion capture as well as a sensor fusion method for combining inertial sensors with a dual GPS receiver. The above sensor fusion applications give rise to a number of calibration problems. Novel and easy-to-use calibration algorithms have been developed and tested to determine the following parameters: the magnetic field distortion when an IMU containing magnetometers is mounted close to a ferro-magnetic object, the relative position and orientation of a rigidly connected camera and IMU, as well as the clock parameters and receiver positions of an indoor UWB positioning system.
MATRIS (Markerless real-time Tracking for Augmented Reality Image), a sixth framework programme funded by the European Union
CADICS (Control, Autonomy, and Decision-making in Complex Systems), a Linneaus Center funded by the Swedish Research Council (VR)
Strategic Research Center MOVIII, funded by the Swedish Foundation for Strategic Research (SSF)
APA, Harvard, Vancouver, ISO, and other styles
46

Liu, Kaibo. "Data fusion for system modeling, performance assessment and improvement." Diss., Georgia Institute of Technology, 2013. http://hdl.handle.net/1853/52937.

Full text
Abstract:
Due to rapid advancements in sensing and computation technology, multiple types of sensors have been embedded in various applications, on-line automatically collecting massive production information. Although this data-rich environment provides great opportunity for more effective process control, it also raises new research challenges on data analysis and decision making due to the complex data structures, such as heterogeneous data dependency, and large-volume and high-dimensional characteristics. This thesis contributes to the area of System Informatics and Control (SIAC) to develop systematic data fusion methodologies for effective quality control and performance improvement in complex systems. These advanced methodologies enable (1) a better handling of the rich data environment communicated by complex engineering systems, (2) a closer monitoring of the system status, and (3) a more accurate forecasting of future trends and behaviors. The research bridges the gaps in methodologies among advanced statistics, engineering domain knowledge and operation research. It also forms close linkage to various application areas such as manufacturing, health care, energy and service systems. This thesis started from investigating the optimal sensor system design and conducting multiple sensor data fusion analysis for process monitoring and diagnosis in different applications. In Chapter 2, we first studied the couplings or interactions between the optimal design of a sensor system in a Bayesian Network and quality management of a manufacturing system, which can improve cost-effectiveness and production yield by considering sensor cost, process change detection speed, and fault diagnosis accuracy in an integrated manner. An algorithm named “Best Allocation Subsets by Intelligent Search” (BASIS) with optimality proof is developed to obtain the optimal sensor allocation design at minimum cost under different user specified detection requirements. Chapter 3 extended this line of research by proposing a novel adaptive sensor allocation framework, which can greatly improve the monitoring and diagnosis capabilities of the previous method. A max-min criterion is developed to manage sensor reallocation and process change detection in an integrated manner. The methodology was tested and validated based on a hot forming process and a cap alignment process. Next in Chapter 4, we proposed a Scalable-Robust-Efficient Adaptive (SERA) sensor allocation strategy for online high-dimensional process monitoring in a general network. A monitoring scheme of using the sum of top-r local detection statistics is developed, which is scalable, effective and robust in detecting a wide range of possible shifts in all directions. This research provides a generic guideline for practitioners on determining (1) the appropriate sensor layout; (2) the “ON” and “OFF” states of different sensors; and (3) which part of the acquired data should be transmitted to and analyzed at the fusion center, when only limited resources are available. To improve the accuracy of remaining lifetime prediction, Chapter 5 proposed a data-level fusion methodology for degradation modeling and prognostics. When multiple sensors are available to measure the degradation mechanism of a same system, it becomes a high dimensional and challenging problem to determine which sensors to use and how to combine them together for better data analysis. To address this issue, we first defined two essential properties if present in a degradation signal, can enhance the effectiveness for prognostics. Then, we proposed a generic data-level fusion algorithm to construct a composite health index to achieve those two identified properties. The methodology was tested using the degradation signals of aircraft gas turbine engine, which demonstrated a much better prognostic result compared to relying solely on the data from an individual sensor. In summary, this thesis is the research drawing attention to the area of data fusion for effective employment of the underlying data gathering capabilities for system modeling, performance assessment and improvement. The fundamental data fusion methodologies are developed and further applied to various applications, which can facilitate resources planning, real-time monitoring, diagnosis and prognostics.
APA, Harvard, Vancouver, ISO, and other styles
47

Peyraud, Sébastien. "Localisation 3D de mobile en milieu urbain par fusion d’informations satellitaires, proprioceptives et cartographiques." Limoges, 2012. https://aurore.unilim.fr/theses/nxfile/default/1bba77a7-475c-406c-83b3-f9c39f532397/blobholder:0/2012LIMO4026.pdf.

Full text
Abstract:
Ce travail s'inscrit dans la recherche de la maîtrise de la localisation de mobiles terrestres en utilisant conjointement des informations issues de constellations satellitaires, de Systèmes d'Informations Géographiques et de capteurs de mouvement du véhicule. Il se caractérise : par une description de l'environnement en 3 dimensions (généralement restreinte aux 2 dimensions d'un monde plat). La localisation consiste alors à estimer un vecteur de configuration de dimension 6 au lieu de 3 dans un monde plat. Cette préoccupation permet notamment la prise en compte de l'occultation par des immeubles de la vision directe des satellites. -par l'utilisation conjointe des informations satellitaires brutes aux données cartographiques et aux mesures proprioceptives, désigné par la notion de couplage serré. Le couplage serré permet de tirer profit des situations où le récepteur reçoit des informations de peu de satellites comme c'est le cas dans des environnements urbains où la visibilité du ciel est restreinte. - par l'utilisation conjointe d'algorithmes d'estimation basés sur des modèles stochastiques (Filtrage de Kalman) ou ensemblistes des incertitudes. - par l'expérimentation des méthodes proposées sur des jeux de données réelles. En particulier, le traitement des données de la démonstration finale du projet CityVIP (ANR-07-TSFA-013-01), réalisée à Paris, apporte beaucoup de crédibilité aux méthodes proposées. Les résultats présentés constituent une brique technologique dans la constitution de Véhicules Individuels Publiques (VIP). Cette approche par brique technologique a été motivée par le fait que cette thèse synthétise un ensemble de travaux effectués dans le projet CityVIP
This work joins in the search for the control of land mobiles localization by using jointly informations outcomes from satellite constellations, from Geographical Information Systems and from vehicle motion sensors. It is characterized: -by a description of the environment in 3 dimensions (generally restricted to the 2 dimensions of a flat world). The localization consists then in estimating a 6 dimensional configuration vector instead of 3 in a flat world. This concern allows in particular to consider if, because of the occultation by buildings, satellites are in direct view or not. -by the joint use of raw satellite informations to cartographic data and to proprioceptive measurements, designated by the concept of tight coupling. The tight coupling allows to benefit from situations where the receiver receives information of few satellites as it is the case in urban environments where the sky visibility is restricted. -by the joint use of estimation algorithms based on stochastic (Kalman filtering) or set-membership models of uncertainties. -by the experimentation of the proposed methods on real data sets. In particular, the data processing of the final demonstration of the CityVIP project (ANR-07-TSFA-013-01 ), realized in Paris, brings a lot of credibility to the proposed methods. The presented results establish a technological brick in the constitution of Individual Vehicles Public (VIP). This approach by technological brick was motivated by the fact that this thesis synthesizes a set of works carried out in the CityVIP project
APA, Harvard, Vancouver, ISO, and other styles
48

Alam, Muhammad Mansoor. "Corrigé de localisation dans un environment extérieur sans fil en utilisant estimation, filtrage, la prévision et des techniques de fusion : une application par wifi utilisant le terrain à base de connaissances." Phd thesis, Université de La Rochelle, 2011. http://tel.archives-ouvertes.fr/tel-00815919.

Full text
Abstract:
L'estimation de la position des noeuds de communication sans fil est un domaine de recherche très populaire au cours des dernières années. La recherche de l'estimation de l'emplacement n'est pas limitée à la communication par satellite, mais elle concerne aussi les réseaux WLAN, MANET, WSN et la communication cellulaire. En raison de la croissance et de l'évolution des architectures de communication cellulaire, l'utilisation des appareils portables a augmenté rapidement, et les appels provenant d'utilisateurs mobiles ont également rapidement augmenté. On estime que plus de 50% des appels d'urgence sont émis par des téléphones mobiles. Les chercheurs ont utilisé différentes techniques d'estimation de la position, tels que les satellites, les techniques statistiques et la cartographie. Afin d'atteindre une meilleure précision, certains chercheurs ont combiné deux ou plusieurs techniques. Cependant, l'estimation de la position basée sur le terrain est un domaine qui n'a pas été considéré en profondeur par les chercheurs. Grâce aux ondes radio qui se comportent différemment dans des atmosphères différentes, les calculs à l'aide de quelques paramètres ne sont pas suffisants pour atteindre une précision avec différents terrains, surtout quand il sont totalement basés sur le format RSS, qui entraine des altérations.Cette recherche se concentre sur la localisation des noeuds de communication sans fil en utilisant des techniques géométriques et statistiques, et en prenant en compte l'altération et l'atténuation des terrains. Le modèle proposé est constitué de quatre étapes, qui sont l'estimation, le filtrage, la prédiction et la fusion. Un prototype a été construit en utilisant le WiFi IEEE 802.11x standard. Dans la première étape, en utilisant le rapport signal-bruit de la zone géographique, la péninsule Malaisienne est classée en 13 types de terrains différents.Dans la deuxième étape, les points de données point-à-point sont enregistrés en utilisant la force du signal disponible et en recevant la puissance du signal en considérant différents types de terrains. L'estimation de la localisation se fait au cours de troisième étape en utilisant la célèbre méthode de triangulation. Les résultats estimés sont encore filtrés dans la quatrième étape en utilisant la moyenne et la moyenne des moyennes. Pour la correction des erreurs, le filtrage de l'emplacement est également fait en utilisant la règle des plus proches voisins. La prédiction est affinée au cours de la cinquième étape en utilisant la variance combinée qui permet de prédire la région considérée. L'utilisation des régions d'intérêt contribue à éliminer les emplacements situés à l'extérieur de la zone sélectionnée. Au cours de la sixième étape, les résultats du filtrage sont fusionnés avec la prédiction afin d'obtenir une meilleure précision.Les résultats montrent que les recherches effectuées permettent de réduire les erreurs de 18 m à 6 m dans des terrains fortement atténués, et de 3,5 m à 0,5 m dans des terrains faiblement atténués.
APA, Harvard, Vancouver, ISO, and other styles
49

Kueviakoe, Kangni. "Localisation multi-capteurs garantie : résolution d'un problème de satisfaction de contraintes." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112241/document.

Full text
Abstract:
Cette thèse traite de la localisation de véhicule. Plusieurs méthodes sont utilisées pour résoudre ce type de problème. Elles peuvent être classées en deux grandes catégories d’approches : les approches probabilistes et les approches déterministes.Ce travail aborde les approches déterministes et plus précisément l'approche ensembliste basée sur l'analyse par intervalles. Les travaux ont été conduits sur des jeux de données réelles collectées en environnements d'extérieur comprenant des capteurs proprioceptifs et extéroceptifs.Lorsque l'on met en jeu plusieurs capteurs fournissant des informations complémentaires ou redondantes, il est important de fusionner les données afin d'améliorer la pose estimée. L'approche détaillée dans ce document utilise les méthodes intervalles et présente le problème de la localisation sous la forme d'un problème de satisfaction de contraintes.La résolution se fait à l'aide d’un solveur à intervalles. Plusieurs algorithmes ont été comparés. Un constat s'est dégagé : les algorithmes de consistance locale ne corrigent pas l'incertitude sur l’orientation. Cette thèse propose une méthode de localisation utilisable dans des applications temps réel et qui corrige l'incertitude sur le cap du véhicule. Nous avons comparé nos résultats à ceux du filtre de Kalman étendu (méthode probabiliste de référence) et mis en avant un des intérêts de notre méthode : l'assurance d'une consistance de la pose (position et orientation du mobile).Cette thèse propose deux contributions. La première est d'ordre méthodologique. Dans l'état de l'art tous les travaux affirment la nécessité (voire l'obligation) d'une décomposition préalable des contraintes du problème avant l'étape de résolution. Nos travaux permettent de prouver le contraire. La deuxième contribution concerne la réduction du domaine de l'incertitude en orientation en couplant la propagation de contraintes et une approche de bissection
This thesis deals with the vehicle locationand addresses the problem of SLAM (simultaneous localization and mapping). Several methods are used to solve this kind of problem. They can be classified into two broad categories of approaches: probabilistic approach and deterministic approaches. This work addresses the deterministic approaches and more precisely the approach based on interval analysis. The work has been conducted on real data sets collected in outdoor environments with proprioceptive and exteroceptive sensors.When multiple sensors providing complementary or redundant information are put into play, it is important to merge the data to improve the estimated pose. The approach detailed in this document uses the intervals methods and presents the localization problem as a constraint satisfaction problem.The resolution is done using a solver interval. Several solvers were compared. One thing is clear: local consistency algorithms do not address the uncertainty of the orientation. This thesis proposes a method of locating usable in real time applications and corrects the uncertainty in the heading of the vehicle. We compared our results with those of the extended Kalman filter (probabilistic reference method) and highlighted one of the interests of our method: the assurance of consistency of the pose (position and orientation of the mobile).This thesis proposes two contributions. The first is methodological. In the state of the art all works affirm the need (or obligation) to pre-decompose the constraints of the problem before the resolution step. Our work allows to prove otherwise. The second contribution relates to the reduction of the orientation uncertainty by combining constraint propagation and a bisection approach
APA, Harvard, Vancouver, ISO, and other styles
50

Abuhadrous, Iyad. "Système embarqué temps réel de localisation et de modélisation 3D par fusion multi-capteur." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001118.

Full text
Abstract:
Cette étude va se focaliser sur trois aspects. Dans un premier temps, un effort sera porté sur l'aspect "localisation précise" du véhicule en mouvement. Pour cela, il est nécessaire de se pencher sur l'intégration et le traitement de l'information issue de systèmes hétérogènes de navigation: GPS et centrale inertielle (INS) auxquels sera rajoutée ensuite l'odométrie. La raison de cette intégration est d'exploiter les avantages de chacun des systèmes utilisés. L'intégration utilise un filtrage numérique pour procéder à une compensation des erreurs en position, vitesse, et en attitude issues de chaque capteur. L'accent n'a pas seulement été mis sur l'intégration, mais aussi sur les notions de précision des résultats. Dans un deuxième temps, nous allons nous intéresser à la fois à la validation quantitative et qualitative des résultats et à l'élaboration d'une application exploitant notre travail. Les erreurs du système sont comparées avec une trajectoire de référence. Nous avons choisi de réaliser un système de numérisation tridimensionnelle de l'environnement couplé à un système de modélisation adapté au type d'environnement. L'étude se penchera sur le capteur d'acquisition de données télémétriques et son intégration à bord du véhicule. Un intérêt particulier est porté sur la qualité et les imprécisions des données retournées par le télémètre. L'acquisition des données se fera au vol et pendant le déplacement du véhicule. Enfin, le modèle obtenu sera exploité, de deux manières: la constitution d'un modèle géométrique et topologique précis puis l'extraction d'informations sémantiques du modèle (extraction de la route ou des obstacles fixes, identifications d'amers, caractérisation de la route, etc.).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography