Dissertations / Theses on the topic 'Data localisation'

To see the other types of publications on this topic, follow the link: Data localisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Data localisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Romero, Marcelo. "Landmark localisation in 3D face data." Thesis, University of York, 2010. http://etheses.whiterose.ac.uk/1147/.

Full text
Abstract:
Accurate landmark localisation is an essential precursor to many 3D face processing algorithms but, as yet, there is a lack of convincing solutions that work well over a wide range of head poses. In this thesis, an investigation to localise facial landmarks from 3D images is presented, without using any assumption concerning facial pose. In particular, this research devises new surface descriptors, which are derived from either unstructured face data, or a radial basis function (RBF) model of the facial surface. A ground–truth of eleven facial landmarks is collected over well–registered facial images in the Face Recognition Grand Challenge (FRGC) database. Then, a range of feature descriptors of varying complexity are investigated to illustrate repeatability and accuracy when computed for the full set of eleven facial landmarks. At this stage, the nose–tip and two inner–eye corners are observed as the most distinctive facial landmarks as a trade–off among repeatability, accuracy, and complexity. Thus, this investigation focuses on the localisation of these three facial landmarks, which is the minimum number of landmarks necessary for pose normalisation. Two new families of descriptors are introduced, namely point–pair and point–triplet descriptors, which require two and three vertices respectively for their computation. Also, two facial landmark localisation methods are investigated; in the first, a binary decision tree is used to implement a cascade filter, in the second, graph matching is implemented via relaxation by elimination. Then, using all of these descriptors and algorithms, a number of systems are designed to localise the nose–tip and two inner–eye corners. Above all, 99.92% of nose–tip landmarks within an accuracy of 12mm is the best localisation performance, which is achieved by one cascade filter system. Finally, landmark localisation performance is reported by using a novel cumulative error curve. Localisation results are gathered by computing errors of estimated landmark locations against respective ground–truth data.
APA, Harvard, Vancouver, ISO, and other styles
2

Nelson, Peter. "Driven by data : city-scale localisation at night." Thesis, University of Oxford, 2016. https://ora.ox.ac.uk/objects/uuid:d67f91ea-5a9c-47b3-be07-7a46875ed503.

Full text
Abstract:
This thesis is about facilitating the use of vast quantities of data for robotics applications, particularly for the tasks of mapping and localisation in the context of lifelong learning. Further, we tackle the specific problem of localising an autonomous vehicle at night, in urban environments, using vision. In general, robotics applications have some unique and unusual data requirements. The curation and management of such data are often overlooked. An emerging theme is the use of large corpora of spatiotemporally indexed sensor data which must be searched and leveraged both offline and online. Without careful thought to their organisation, however, this leads to vast quantities of data which quickly become unmanageable. The current paradigm of collecting data for specific purposes and storing them in ad-hoc ways will not scale to meet this challenge. In the first part of this thesis, we present the design and implementation of a data management framework that is capable of dealing with large datasets, and provides functionality required by many offline and online robotics applications. We systematically identify the data requirements of these applications and design a relational database that is capable of meeting their demands. This database framework is then used to facilitate the storage and retrieval of maps in our visual nighttime navigation system, a problem which has its own unique set of challenges. Despite it being dark exactly half of the time, surprisingly little work has addressed these challenges. A defining aspect of nighttime urban scenes is the presence and effect of artificial lighting. By building a model of the environment which includes a representation of the spatial location of every light source, localisation becomes possible using monocular cameras. One major challenge we face is the gross change in light appearance as a function of distance, due to flare, saturation, and bleeding. To overcome this, we model the appearance of each light as a function of vehicle location, using this to inform our data association decisions and to regularise the cost function which is used to infer vehicle pose. We demonstrate that our system is able to localise successfully at night, over 40km, in situations where a traditional point feature based system fails.
APA, Harvard, Vancouver, ISO, and other styles
3

Farchi, Alban. "On the localisation of ensemble data assimilation methods." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1034.

Full text
Abstract:
L’assimilation de données est la discipline permettant de combiner des observations d’un système dynamique avec un modèle numérique simulant ce système, l'objectif étant d'améliorer la connaissance de l'état du système. Le principal domaine d'application de l'assimilation de données est la prévision numérique du temps. Les techniques d'assimilation sont implémentées dans les centres opérationnels depuis plusieurs décennies et elles ont largement contribué à améliorer la qualité des prédictions. Une manière efficace de réduire la dimension des systèmes d'assimilation de données est d'utiliser des méthodes ensemblistes. La plupart de ces méthodes peuvent être regroupées en deux classes~: le filtre de Kalman d'ensemble (EnKF) et le filtre particulaire (PF). Le succès de l'EnKF pour des problèmes géophysiques de grande dimension est largement dû à la localisation. La localisation repose sur l'hypothèse que les corrélations entre variables d'un système dynamique décroissent très rapidement avec la distance. Dans cette thèse, nous avons étudié et amélioré les méthodes de localisation pour l'assimilation de données ensembliste. La première partie est dédiée à l'implémentation de la localisation dans le PF. Nous passons en revue les récents développements concernant la localisation dans le PF et nous proposons une classification théorique des algorithmes de type PF local. Nous insistons sur les avantages et les inconvénients de chaque catégorie puis nous proposons des solutions pratiques aux problèmes que posent les PF localisés. Les PF locaux sont testés et comparés en utilisant des expériences jumelles avec des modèles de petite et moyenne dimension. Finalement, nous considérons le cas de la prédiction de l'ozone troposphérique en utilisant des mesures de concentration. Plusieurs algorithmes, dont des PF locaux, sont implémentés et appliqués à ce problème et leurs performances sont comparées.La deuxième partie est dédiée à l'implémentation de la localisation des covariances dans l'EnKF. Nous montrons comment la localisation des covariances peut être efficacement implémentée dans l'EnKF déterministe en utilisant un ensemble augmenté. L'algorithme obtenu est testé au moyen d'expériences jumelles avec un modèle de moyenne dimension et des observations satellitaires. Finalement, nous étudions en détail la cohérence de l'EnKF déterministe avec localisation des covariances. Une nouvelle méthode est proposée puis comparée à la méthode traditionnelle en utilisant des simulation jumelles avec des modèles de petite dimension
Data assimilation is the mathematical discipline which gathers all the methods designed to improve the knowledge of the state of a dynamical system using both observations and modelling results of this system. In the geosciences, data assimilation it mainly applied to numerical weather prediction. It has been used in operational centres for several decades, and it has significantly contributed to the increase in quality of the forecasts.Ensemble methods are powerful tools to reduce the dimension of the data assimilation systems. Currently, the two most widespread classes of ensemble data assimilation methods are the ensemble Kalman filter (EnKF) and the particle filter (PF). The success of the EnKF in high-dimensional geophysical systems is largely due to the use of localisation. Localisation is based on the assumption that correlations between state variables in a dynamical system decrease at a fast rate with the distance. In this thesis, we have studied and improved localisation methods for ensemble data assimilation.The first part is dedicated to the implementation of localisation in the PF. The recent developments in local particle filtering are reviewed, and a generic and theoretical classification of local PF algorithms is introduced, with an emphasis on the advantages and drawbacks of each category. Alongside the classification, practical solutions to the difficulties of local particle filtering are suggested. The local PF algorithms are tested and compared using twin experiments with low- to medium-order systems. Finally, we consider the case study of the prediction of the tropospheric ozone using concentration measurements. Several data assimilation algorithms, including local PF algorithms, are applied to this problem and their performances are compared.The second part is dedicated to the implementation of covariance localisation in the EnKF. We show how covariance localisation can be efficiently implemented in the deterministic EnKF using an augmented ensemble. The proposed algorithm is tested using twin experiments with a medium-order model and satellite-like observations. Finally, the consistency of the deterministic EnKF with covariance localisation is studied in details. A new implementation is proposed and compared to the original one using twin experiments with low-order models
APA, Harvard, Vancouver, ISO, and other styles
4

Engin, Zeynep. "Biologically plausible pattern localisation and parameter estimation on visual data." Thesis, Imperial College London, 2009. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.511987.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Zaman, Munir uz. "Mobile robot localisation : error modelling, data synchronisation and vision techniques." Thesis, University of Surrey, 2006. http://epubs.surrey.ac.uk/844082/.

Full text
Abstract:
Mobile robot localisation has been, and continues to be, a very active research area. Estimating the position of a mobile robot is fundamental for its navigation and map-building. This thesis addresses some of the problems associated with mobile robot localisation. Three distinct items of research presented in this thesis are (i) A systematic odometry error model for a synchronous drive robot; and (ii) A novel method to synchronise two independent sensor data streams, and (iii) A proposal for an exteroceptive truly odometric sensor system - 'Visiodometry'. Cyclops is a synchronous drive mobile robot. The kinematics causes the path of the robot to curve, with the degree of curvature affected by the orientation of the wheels. A systematic odometry error model is proposed to correct for this. The proposed model is supported both experimentally, and theoretically from modelling the kinematics. Combining sensor data from different sensor data streams is commonly done to improve the accuracy of estimated variables. However, in some cases the sensors are not networked making it impossible to synchronise the data streams. The second item of research proposes a novel method to estimate the time difference in the local clocks of the discrete sensor data from their time-stamps alone. A proposed enhancement to the method improves both the rate of convergence and the precision of the estimate. Results show that the method is more optimum and robust than one based on known methods, including those based on Gaussian assumptions. Wheel odometry is a common method for mobile robot localisation. However, wheel odometry is unreliable if there is wheel slip. In these environments visual odometry has been used. However, the method does not work well on planar surfaces or surfaces with fine texture. It is also unable to accurately detect small motions less than a few centimetres. The third area of research proposes an exteroceptive odometric sensor called 'visiodometry' which is independent of the kinematics and therefore robust to wheel odometry errors. Two methods are proposed (i) a dual camera 'shift vector' method and (ii) a monocular 'roto-translation' method. The results demonstrate that the proposed system can provide odometric localisation data in planar environments to a high precision. The method is based upon extracting global motion estimates of affine transformed images of the ground using the phase correlation method. Experimental results demonstrate that, as a proof-of-concept, this type of sensor input is an alternative genuinely odometric input which has the potential to be comparable in accuracy and precision to wheel odometry in environments where wheel odometry and visual odometry methods are unreliable.
APA, Harvard, Vancouver, ISO, and other styles
6

Strumia, Maddalena [Verfasser], and Thomas [Akademischer Betreuer] Brox. "Localisation and characterisation of brain pathology from structural MRI data." Freiburg : Universität, 2016. http://d-nb.info/1122594186/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Jagbrant, Gustav. "Autonomous Crop Segmentation, Characterisation and Localisation." Thesis, Linköpings universitet, Institutionen för systemteknik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-97374.

Full text
Abstract:
Orchards demand large areas of land, thus they are often situated far from major population centres. As a result it is often difficult to obtain the necessary personnel, limiting both growth and productivity. However, if autonomous robots could be integrated into the operation of the orchard, the manpower demand could be reduced. A key problem for any autonomous robot is localisation; how does the robot know where it is? In agriculture robots, the most common approach is to use GPS positioning. However, in an orchard environment, the dense and tall vegetation restricts the usage to large robots that reach above the surroundings. In order to enable the use of smaller robots, it is instead necessary to use a GPS independent system. However, due to the similarity of the environment and the lack of strong recognisable features, it appears unlikely that typical non-GPS solutions will prove successful. Therefore we present a GPS independent localisation system, specifically aimed for orchards, that utilises the inherent structure of the surroundings. Furthermore, we examine and individually evaluate three related sub-problems. The proposed system utilises a 3D point cloud created from a 2D LIDAR and the robot’s movement. First, we show how the data can be segmented into individual trees using a Hidden Semi-Markov Model. Second, we introduce a set of descriptors for describing the geometric characteristics of the individual trees. Third, we present a robust localisation method based on Hidden Markov Models. Finally, we propose a method for detecting segmentation errors when associating new tree measurements with previously measured trees. Evaluation shows that the proposed segmentation method is accurate and yields very few segmentation errors. Furthermore, the introduced descriptors are determined to be consistent and informative enough to allow localisation. Third, we show that the presented localisation method is robust both to noise and segmentation errors. Finally it is shown that a significant majority of all segmentation errors can be detected without falsely labeling correct segmentations as incorrect.
Eftersom fruktodlingar kräver stora markområden är de ofta belägna långt från större befolkningscentra. Detta gör det svårt att finna tillräckligt med arbetskraft och begränsar expansionsmöjligheterna. Genom att integrera autonoma robotar i drivandet av odlingarna skulle arbetet kunna effektiviseras och behovet av arbetskraft minska. Ett nyckelproblem för alla autonoma robotar är lokalisering; hur vet roboten var den är? I jordbruksrobotar är standardlösningen att använda GPS-positionering. Detta är dock problematiskt i fruktodlingar, då den höga och täta vegetationen begränsar användandet till större robotar som når ovanför omgivningen. För att möjliggöra användandet av mindre robotar är det istället nödvändigt att använda ett GPS-oberoende lokaliseringssystem. Detta problematiseras dock av den likartade omgivningen och bristen på distinkta riktpunkter, varför det framstår som osannolikt att existerande standardlösningar kommer fungera i denna omgivning. Därför presenterar vi ett GPS-oberoende lokaliseringssystem, speciellt riktat mot fruktodlingar, som utnyttjar den naturliga strukturen hos omgivningen.Därutöver undersöker vi och utvärderar tre relaterade delproblem. Det föreslagna systemet använder ett 3D-punktmoln skapat av en 2D-LIDAR och robotens rörelse. Först visas hur en dold semi-markovmodell kan användas för att segmentera datasetet i enskilda träd. Därefter introducerar vi ett antal deskriptorer för att beskriva trädens geometriska form. Vi visar därefter hur detta kan kombineras med en dold markovmodell för att skapa ett robust lokaliseringssystem.Slutligen föreslår vi en metod för att detektera segmenteringsfel när nya mätningar av träd associeras med tidigare uppmätta träd. De föreslagna metoderna utvärderas individuellt och visar på goda resultat. Den föreslagna segmenteringsmetoden visas vara noggrann och ge upphov till få segmenteringsfel. Därutöver visas att de introducerade deskriptorerna är tillräckligt konsistenta och informativa för att möjliggöra lokalisering. Ytterligare visas att den presenterade lokaliseringsmetoden är robust både mot brus och segmenteringsfel. Slutligen visas att en signifikant majoritet av alla segmenteringsfel kan detekteras utan att felaktigt beteckna korrekta segmenteringar som inkorrekta.
APA, Harvard, Vancouver, ISO, and other styles
8

Graham, Caroline C. "Scale model seismicity : a detailed study of deformation localisation from laboratory acoustic emission data." Thesis, University of Edinburgh, 2010. http://hdl.handle.net/1842/4654.

Full text
Abstract:
Acoustic emissions (AE) can provide information relating to the internal state of a deforming rock sample during laboratory testing and have been utilised to quantify damage progression for time-dependent failure modeling. However, the underlying physical mechanisms that produce AE in different materials and their evolution during the process of damage localisation are not fully understood, particularly in porous media. In order to investigate the sources of laboratory acoustic emissions, a moment tensor inversion was applied to data from triaxial compression experiments on Aue granite and Clashach sandstone. The moment tensor inversion was verified for granite, by comparison with results obtained using a more simplistic source analysis technique. In the non-porous Aue granite, AE sources exhibited a predominantly tensile behaviour in the early stages of AE activity. However, shear sources become dominant in the vicinity of the peak stress. In contrast, during deformation of the Clashach sandstone, which has a significant pre-existing porosity, AE sources are dominated by a collapse signature and generally involve a notable shear component. AE that have a predominantly shear mechanism are also a major contributor to the microscale deformation imaged by the technique, and dominate during shear localisation. A combination of correlation analysis and source analysis was used to elucidate the temporal and spatial evolution of the AE source mechanisms involved in the localisation process, as well as during a temporary hiatus in the progression to failure. The results support the concept that the cascade to failure requires the simultaneous involvement of a range of micromechanical behaviours to maintain the progression of localised damage, and eventual formation of a fault. Localisation of collapse mechanisms was not observed until the final approach to failure. Finally, AE sources produced during brittle deformation of the Clashach sandstone were characterised in detail and compared to microstructural observations representing the integrated effect of all times up to the end of the test, and including smaller structures that may have been formed insufficiently dynamically to produce AE. Equivalent focal mechanisms for these events are presented and the relative proportions of their volumetric and shear components considered. The results indicate that AE sources display a wide spectrum of micromechanical behaviour that is consistent with microstructural observations, indicating that AE mechanisms are representative of ongoing deformation processes within the sandstone. It is argued that moment tensor inversion of acoustic emissions is a powerful tool for elucidating the micromechanical evolution of damage, during the brittle deformation of rock.
APA, Harvard, Vancouver, ISO, and other styles
9

Danielsson, Simon, and Jakob Flygare. "A Multi-Target Graph-Constrained HMM Localisation Approach using Sparse Wi-Fi Sensor Data." Thesis, KTH, Optimeringslära och systemteori, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-231090.

Full text
Abstract:
This thesis explored the possibilities of using a Hidden Markov Model approach for multi-target localisation in an urban environment, with observations generated from Wi-Fi sensors. The area is modelled as a network of nodes and arcs, where the arcs represent sidewalks in the area and constitutes the hidden states in the model. The output of the model is the expected amount of people at each road segment throughout the day. In addition to this, two methods for analyzing the impact of events in the area are proposed. The first method is based on a time series analysis, and the second one is based on the updated transition matrix using the Baum-Welch algorithm. Both methods reveal which road segments are most heavily affected by a surge of traffic in the area, as well as potential bottleneck areas where congestion is likely to have occurred.
I det här examensarbetet har lokalisering av gångtrafikanter med hjälp av Hidden Markov Models utförts. Lokaliseringen är byggd på data från Wi-Fi sensorer i ett område i Stockholm. Området är modellerat som ett graf-baserat nätverk där linjerna mellan noderna representerar möjliga vägar för en person att befinna sig på. Resultatet för varje individ är aggregerat för att visa förväntat antal personer på varje segment över en hel dag. Två metoder för att analysera hur event påverkar området introduceras och beskrivs. Den första är baserad på tidsserieanalys och den andra är en maskinlärningsmetod som bygger på Baum-Welch algoritmen. Båda metoderna visar vilka segment som drabbas mest av en snabb ökning av trafik i området och var trängsel är troligt att förekomma.
APA, Harvard, Vancouver, ISO, and other styles
10

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Full text
Abstract:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
APA, Harvard, Vancouver, ISO, and other styles
11

Nowakowski, Mathieu. "Localisation d'un robot humanoïde en milieu intérieur non-contraint." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM026/document.

Full text
Abstract:
Après la démocratisation des robots industriels, la tendance actuelle est au développement de robots sociaux dont la fonction principale est l'interaction avec ses utilisateurs. Le déploiement de telles plate-formes dans des boutiques, des musées ou des gares relance différentes problématiques dont celle de la localisation pour les robots mobiles. Cette thèse traite ainsi de la localisation du robot Pepper en milieu intérieur non-contraint. Présent dans de nombreuses boutiques au Japon, Pepper est utilisé par des personnes non-expertes et doit donc être le plus autonome possible. Cependant, les solutions de localisation autonome de la littérature souffrent des limitations de la plate-forme. Les travaux de cette thèse s'articulent autour de deux grands axes. D'abord, le problème de la relocalisation dans un environnement visuellement redondant est étudié. La solution proposée consiste à combiner la vision et le Wi-Fi dans une approche probabiliste basée sur l'apparence. Ensuite, la question de la création d'une carte métrique cohérente est approfondie. Pour compenser les nombreuses pertes de suivi d'amers visuels causées par une fréquence d'acquisition basse, des contraintes odométriques sont ajoutées à une optimisation par ajustement de faisceaux. Ces solutions ont été testées et validées sur plusieurs robots Pepper à partir de données collectées dans différents environnements intérieurs sur plus de 7 km
After the democratization of industrial robots, the current trend is the development of social robots that create strong interactions with their users. The deployment of such platforms in shops, museums or train stations raises various issues including the autonomous localization of mobile robots. This thesis focuses on the localization of Pepper robots in a non-constrained indoor environment. Pepper robots are daily used in many shops in Japan and must be as autonomous as possible. However, localization solutions in the literature suffer from the limitations of the platform. This thesis is split into two main themes. First, the problem of relocalization in a visually redundant environment is studied. The proposed solution combines vision and Wi-Fi in a probabilistic approach based on the appearance. Then, the question of a consistent metrical mapping is examined. In order to compensate the numerous losses of tracking caused by the low acquisition frequency, odometric constraints are added to a bundle adjustment optimization. These solutions have been tested and validated on several Pepper robots, from data collected in different indoor environments over more than 7 km
APA, Harvard, Vancouver, ISO, and other styles
12

ANDREOLETTI, Pierre. "Localisation et Concentration de la Marche de Sinai." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00004116.

Full text
Abstract:
La marche de Sinai est un modèle élémentaire de marches aléatoires en milieu aléatoire unidimensionnelle effectuant des sauts unités sur ses plus proches voisins. On impose trois conditions sur le milieu aléatoire : deux hypothèses nécessaires pour obtenir un processus récurrent non réduit à un marche aléatoire simple et une hypothèse de régularité qui nous permet un bon contrôle des fluctuations du milieu aléatoire. Le comportement asymptotique de ce processus a été découvert par Y. Sinai en 1982 : il montre qu'il est sous diffusif et que pour instant n donné il est localisé dans le voisinage d'un point déterminé du réseau. Ce point est une variable aléatoire dépendant uniquement du milieu aléatoire et de n dont la distribution limite a été déterminée par H. Kesten et A. O. Golosov (indépendamment) en 1986. Une partie de cette thèse (partie II) a eu pour but de donner une preuve alternative au résultat de Y. Sinai . L'étude détaillée des résultats sur la localisation nous a permis de découvrir un nouvel aspect du comportement de la marche de Sinai que nous avons appelé concentration (partie III de la thèse). Nous avons montré que celle-ci était concentrée dans un voisinage restreint du point de localisation, c'est-à-dire que pour un intervalle de temps de longueur n la marche de Sinai passe la quasi-totalité de ce temps n dans un voisinage du point de localisation dont la taille est négligeable devant la distance parcourue. Nous avons également montré que le temps local de la marche de Sinai au point de localisation normalisé par n converge en probabilité vers une variable aléatoire dépendant uniquement du milieu et de n. Cette variable aléatoire est l'inverse de la moyenne du temps local dans la vallée où la marche de Sinai reste prisonnière, en un temps de retour au point de localisation. Les résultats que nous avons obtenus sont de type « trempé », c'est-à-dire que l'on travaille avec un milieu aléatoire appartenant à un sous-espace de probabilité du milieu aléatoire et on montre que ce sous-espace à une probabilité qui tend vers 1. De ces résultats est apparu des conséquences naturelles sur le maximum des temps locaux et le lieu favori de la marche de Sinai, notamment nous avons montré que la marche de Sinai et les lieux favoris de cette marche, correctement normalisés, ont même distribution limite.
APA, Harvard, Vancouver, ISO, and other styles
13

Welte, Anthony. "Spatio-temporal data fusion for intelligent vehicle localization." Thesis, Compiègne, 2020. http://bibliotheque.utc.fr/EXPLOITATION/doc/IFD/2020COMP2572.

Full text
Abstract:
La localisation précise constitue une brique essentielle permettant aux véhicules de naviguer de manière autonome sur la route. Cela peut être atteint à travers les capteurs déjà existants, de nouvelles technologies (Iidars, caméras intelligentes) et des cartes haute définition. Dans ce travail, l'intérêt d'enregistrer et réutiliser des informations sauvegardées en mémoire est exploré. Les systèmes de localisation doivent permettre une estimation à haute fréquence, des associations de données, de la calibration et de la détection d'erreurs. Une architecture composée de plusieurs couches de traitement est proposée et étudiée. Une couche principale de filtrage estime la pose tandis que les autres couches abordent les problèmes plus complexes. L'estimation d'état haute fréquence repose sur des mesures proprioceptives. La calibration du système est essentielle afin d'obtenir une pose précise. En gardant les états estimés et les observations en mémoire, les modèles d'observation des capteurs peuvent être calibrés à partir des estimations lissées. Les Iidars et les caméras intelligentes fournissent des mesures qui peuvent être utilisées pour la localisation mais soulèvent des problèmes d'association de données. Dans cette thèse, le problème est abordé à travers une fenêtre spatio-temporelle, amenant une image plus détaillée de l'environnement. Le buffer d'états est ajusté avec les observations et toutes les associations possibles. Bien que l'utilisation d'amers cartographiés permette d'améliorer la localisation, cela n'est possible que si la carte est fiable. Une approche utilisant les résidus lissés a posteriori a été développée pour détecter ces changements de carte
Localization is an essential basic capability for vehicles to be able to navigate autonomously on the road. This can be achieved through already available sensors and new technologies (Iidars, smart cameras). These sensors combined with highly accurate maps result in greater accuracy. In this work, the benefits of storing and reusing information in memory (in data buffers) are explored. Localization systems need to perform a high-frequency estimation, map matching, calibration and error detection. A framework composed of several processing layers is proposed and studied. A main filtering layer estimates the vehicle pose while other layers address the more complex problems. High-frequency state estimation relies on proprioceptive measurements combined with GNSS observations. Calibration is essential to obtain an accurate pose. By keeping state estimates and observations in a buffer, the observation models of these sensors can be calibrated. This is achieved using smoothed estimates in place of a ground truth. Lidars and smart cameras provide measurements that can be used for localization but raise matching issues with map features. In this work, the matching problem is addressed on a spatio-temporal window, resulting in a more detailed pictur of the environment. The state buffer is adjusted using the observations and all possible matches. Although using mapped features for localization enables to reach greater accuracy, this is only true if the map can be trusted. An approach using the post smoothing residuals has been developed to detect changes and either mitigate or reject the affected features
APA, Harvard, Vancouver, ISO, and other styles
14

Héry, Elwan. "Localisation coopérative de véhicules autonomes communicants." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2516.

Full text
Abstract:
Afin de naviguer en autonomie un véhicule doit être capable de se localiser précisément par rapport aux bords de voie pour ne pas sortir de celle-ci et par rapport aux véhicules et piétons pour ne pas causer d'accident. Cette thèse traite de l'intérêt de la communication dans l'amélioration de la localisation des véhicules autonomes. La navigation autonome sur route est souvent réalisée à partir de coordonnées cartésiennes. Afin de mieux représenter la pose d'un véhicule relativement à la voie dans laquelle il circule, nous étudions l'utilisation de coordonnées curvilignes le long de chemins enregistrés dans des cartes. Ces coordonnées généralisent l'abscisse curviligne en y ajoutant un écart latéral signé par rapport au centre de la voie et une orientation relative au centre de cette voie en prenant en compte le sens de circulation. Une première approche de localisation coopérative est réalisée à partir de ces coordonnées. Une fusion de données à une dimension permet de montrer l'intérêt de la localisation coopérative dans le cas simplifié où l'écart latéral, l'orientation curviligne et la pose relative entre deux véhicules sont connus avec précision. Les problèmes de corrélation des erreurs dus à l'échange d'information sont pris en compte grâce à un filtre par intersection de covariance. Nous présentons ensuite à une méthode de perception de type ICP (Iterative Closest Point) pour déterminer la pose relative entre les véhicules à partir de points LiDAR et d'un modèle polygonal 2D représentant la forme du véhicule. La propagation des erreurs de poses absolues des véhicules à l'aide de poses relatives estimées avec leurs incertitudes se fait via des équations non linéaires qui peuvent avoir un fort impact sur la consistance. Les poses des différents véhicules entourant l'égo-véhicule sont estimés dans une carte locale dynamique (CLD) permettant d'enrichir la carte statique haute définition décrivant le centre de la voie et les bords de celle-ci. La carte locale dynamique est composée de l'état de chaque véhicule communicant. Les états sont fusionnés en utilisant un algorithme asynchrone, à partir de données disponibles à des temps variables. L'algorithme est décentralisé, chaque véhicule calculant sa propre CLD et la partageant. Les erreurs de position des récepteurs GNSS étant biaisées, une détection de marquages est introduite pour obtenir la distance latérale par rapport au centre de la voie afin d'estimer ces biais. Des observations LiDAR avec la méthode ICP permettent de plus d'enrichir la fusion avec des contraintes entre les véhicules. Des résultats expérimentaux illustrent les performances de cette approche en termes de précision et de consistance
To be able to navigate autonomously, a vehicle must be accurately localized relatively to all obstacles, such as roadside for lane keeping and vehicles and pedestrians to avoid causing accidents. This PhD thesis deals with the interest of cooperation to improve the localization of cooperative vehicles that exchange information. Autonomous navigation on the road is often based on coordinates provided in a Cartesian frame. In order to better represent the pose of a vehicle with respect to the lane in which it travels, we study curvilinear coordinates with respect to a path stored in a map. These coordinates generalize the curvilinear abscissa by adding a signed lateral deviation from the center of the lane and an orientation relative to the center of the lane taking into account the direction of travel. These coordinates are studied with different track models and using different projections to make the map-matching. A first cooperative localization approach is based on these coordinates. The lateral deviation and the orientation relative to the lane can be known precisely from a perception of the lane borders, but for autonomous driving with other vehicles, it is important to maintain a good longitudinal accuracy. A one-dimensional data fusion method makes it possible to show the interest of the cooperative localization in this simplified case where the lateral deviation, the curvilinear orientation and the relative positioning between two vehicles are accurately known. This case study shows that, in some cases, lateral accuracy can be propagated to other vehicles to improve their longitudinal accuracy. The correlation issues of the errors are taken into account with a covariance intersection filter. An ICP (Iterative Closest Point) minimization algorithm is then used to determine the relative pose between the vehicles from LiDAR points and a 2D polygonal model representing the shape of the vehicle. Several correspondences of the LiDAR points with the model and different minimization approaches are compared. The propagation of absolute vehicle pose using relative poses with their uncertainties is done through non-linear equations that can have a strong impact on consistency. The different dynamic elements surrounding the ego-vehicle are estimated in a Local Dynamic Map (LDM) to enhance the static high definition map describing the center of the lane and its border. In our case, the agents are only communicating vehicles. The LDM is composed of the state of each vehicle. The states are merged using an asynchronous algorithm, fusing available data at variable times. The algorithm is decentralized, each vehicle computing its own LDM and sharing it. As the position errors of the GNSS receivers are biased, a marking detection is introduced to obtain the lateral deviation from the center of the lane in order to estimate these biases. LiDAR observations with the ICP method allow to enrich the fusion with the constraints between the vehicles. Experimental results of this fusion show that the vehicles are more accurately localized with respect to each other while maintaining consistent poses
APA, Harvard, Vancouver, ISO, and other styles
15

Joubert, Deon. "Saliency grouped landmarks for use in vision-based simultaneous localisation and mapping." Diss., University of Pretoria, 2013. http://hdl.handle.net/2263/40834.

Full text
Abstract:
The effective application of mobile robotics requires that robots be able to perform tasks with an extended degree of autonomy. Simultaneous localisation and mapping (SLAM) aids automation by providing a robot with the means of exploring an unknown environment while being able to position itself within this environment. Vision-based SLAM benefits from the large amounts of data produced by cameras but requires intensive processing of these data to obtain useful information. In this dissertation it is proposed that, as the saliency content of an image distils a large amount of the information present, it can be used to benefit vision-based SLAM implementations. The proposal is investigated by developing a new landmark for use in SLAM. Image keypoints are grouped together according to the saliency content of an image to form the new landmark. A SLAM system utilising this new landmark is implemented in order to demonstrate the viability of using the landmark. The landmark extraction, data filtering and data association routines necessary to make use of the landmark are discussed in detail. A Microsoft Kinect is used to obtain video images as well as 3D information of a viewed scene. The system is evaluated using computer simulations and real-world datasets from indoor structured environments. The datasets used are both newly generated and freely available benchmarking ones.
Dissertation (MEng)--University of Pretoria, 2013.
gm2014
Electrical, Electronic and Computer Engineering
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
16

Laby, Romain. "Détection et localisation d'anomalies dans des données hétérogènes en utilisant des modèles graphiques non orientés mixtes." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0026.

Full text
Abstract:
Cette thèse s’articule autour d’un besoin industriel de la société Thales Système Aéroportés et du radar de combat RBE2 équipant les avions de chasses Dassault Rafale. Elle développe une méthodologie de localisation d’anomalies dans des flux de données hétérogènes en utilisant un modèle graphique mixte non orienté et pairs à pairs. Les données sont un mélange de variables catégorielles et quantitatives, et le modèle est appris à partir d’un jeu de données dont on suppose qu’il ne contient pas de données anormales. Les algorithmes de localisation d’anomalies utilisent une version adaptée de l’algorithme CUSUM, dont la fonction de décision est basée sur le calcul de ratios de vraisemblance conditionnelles. Cette fonction permet de réaliser une détection d’anomalies variable par variable et de localiser précisément les variables impliquées dans l’anomalie
This thesis revolves around an industrial need of Thales Système Aéroportés and the RBE2 combat radar equipping Dassault Rafale fighter aircraft. It develops a methodology for locating anomalies in heterogeneous data stream using a mixed, non-orientation and peer-to-peer graphical model. The data are a mixture of categorical and quantitative variables, and the model is learned from a data set that is assumed not to contain abnormal data. Anomaly localization algorithms use an adapted version of the CUSUM algorithm, whose decision function is based on the calculation of conditional likelihood ratios. This function allows the detection of variable anomalies per variable and the precise localization of the variables involved in the anomaly
APA, Harvard, Vancouver, ISO, and other styles
17

Okeya, Olanrewaju Isaac. "Detection and localisation of pipe bursts in a district metered area using an online hydraulic model." Thesis, University of Exeter, 2018. http://hdl.handle.net/10871/33823.

Full text
Abstract:
This thesis presents a research work on the development of new methodology for near-real-time detection and localisation of pipe bursts in a Water Distribution System (WDS) at the District Meters Area (DMA) level. The methodology makes use of online hydraulic model coupled with a demand forecasting methodology and several statistical techniques to process the hydraulic meters data (i.e., flows and pressures) coming from the field at regular time intervals (i.e. every 15 minutes). Once the detection part of the methodology identifies a potential burst occurrence in a system it raises an alarm. This is followed by the application of the burst localisation methodology to approximately locate the event within the District Metered Area (DMA). The online hydraulic model is based on data assimilation methodology coupled with a short-term Water Demand Forecasting Model (WDFM) based on Multi-Linear Regression. Three data assimilation methods were tested in the thesis, namely the iterative Kalman Filter method, the Ensemble Kalman Filter method and the Particle Filter method. The iterative Kalman Filter (i-KF) method was eventually chosen for the online hydraulic model based on the best overall trade-off between water system state prediction accuracy and computational efficiency. The online hydraulic model created this way was coupled with the Statistical Process Control (SPC) technique and a newly developed burst detection metric based on the moving average residuals between the predicted and observed hydraulic states (flows/pressures). Two new SPC-based charts with associated generic set of control rules for analysing burst detection metric values over consecutive time steps were introduced to raise burst alarms in a reliable and timely fashion. The SPC rules and relevant thresholds were determined offline by performing appropriate statistical analysis of residuals. The above was followed by the development of the new methodology for online burst localisation. The methodology integrates the information on burst detection metric values obtained during the detection stage with the new sensitivity matrix developed offline and hydraulic model runs used to simulate potential bursts to identify the most likely burst location in the pipe network. A new data algorithm for estimating the ‘normal’ DMA demand and burst flow during the burst period is developed and used for localisation. A new data algorithm for statistical analysis of flow and pressure data was also developed and used to determine the approximate burst area by producing a list of top ten suspected burst location nodes. The above novel methodologies for burst detection and localisation were applied to two real-life District Metred Areas in the United Kingdom (UK) with artificially generated flow and pressure observations and assumed bursts. The results obtained this way show that the developed methodology detects pipe bursts in a reliable and timely fashion, provides good estimate of a burst flow and accurately approximately locates the burst within a DMA. In addition, the results obtained show the potential of the methodology described here for online burst detection and localisation in assisting Water Companies (WCs) to conserve water, save energy and money. It can also enhance the UK WCs’ profile customer satisfaction, improve operational efficiency and improve the OFWAT’s Service Incentive Mechanism (SIM) scores.
APA, Harvard, Vancouver, ISO, and other styles
18

Kueviakoe, Kangni. "Localisation multi-capteurs garantie : résolution d'un problème de satisfaction de contraintes." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112241/document.

Full text
Abstract:
Cette thèse traite de la localisation de véhicule. Plusieurs méthodes sont utilisées pour résoudre ce type de problème. Elles peuvent être classées en deux grandes catégories d’approches : les approches probabilistes et les approches déterministes.Ce travail aborde les approches déterministes et plus précisément l'approche ensembliste basée sur l'analyse par intervalles. Les travaux ont été conduits sur des jeux de données réelles collectées en environnements d'extérieur comprenant des capteurs proprioceptifs et extéroceptifs.Lorsque l'on met en jeu plusieurs capteurs fournissant des informations complémentaires ou redondantes, il est important de fusionner les données afin d'améliorer la pose estimée. L'approche détaillée dans ce document utilise les méthodes intervalles et présente le problème de la localisation sous la forme d'un problème de satisfaction de contraintes.La résolution se fait à l'aide d’un solveur à intervalles. Plusieurs algorithmes ont été comparés. Un constat s'est dégagé : les algorithmes de consistance locale ne corrigent pas l'incertitude sur l’orientation. Cette thèse propose une méthode de localisation utilisable dans des applications temps réel et qui corrige l'incertitude sur le cap du véhicule. Nous avons comparé nos résultats à ceux du filtre de Kalman étendu (méthode probabiliste de référence) et mis en avant un des intérêts de notre méthode : l'assurance d'une consistance de la pose (position et orientation du mobile).Cette thèse propose deux contributions. La première est d'ordre méthodologique. Dans l'état de l'art tous les travaux affirment la nécessité (voire l'obligation) d'une décomposition préalable des contraintes du problème avant l'étape de résolution. Nos travaux permettent de prouver le contraire. La deuxième contribution concerne la réduction du domaine de l'incertitude en orientation en couplant la propagation de contraintes et une approche de bissection
This thesis deals with the vehicle locationand addresses the problem of SLAM (simultaneous localization and mapping). Several methods are used to solve this kind of problem. They can be classified into two broad categories of approaches: probabilistic approach and deterministic approaches. This work addresses the deterministic approaches and more precisely the approach based on interval analysis. The work has been conducted on real data sets collected in outdoor environments with proprioceptive and exteroceptive sensors.When multiple sensors providing complementary or redundant information are put into play, it is important to merge the data to improve the estimated pose. The approach detailed in this document uses the intervals methods and presents the localization problem as a constraint satisfaction problem.The resolution is done using a solver interval. Several solvers were compared. One thing is clear: local consistency algorithms do not address the uncertainty of the orientation. This thesis proposes a method of locating usable in real time applications and corrects the uncertainty in the heading of the vehicle. We compared our results with those of the extended Kalman filter (probabilistic reference method) and highlighted one of the interests of our method: the assurance of consistency of the pose (position and orientation of the mobile).This thesis proposes two contributions. The first is methodological. In the state of the art all works affirm the need (or obligation) to pre-decompose the constraints of the problem before the resolution step. Our work allows to prove otherwise. The second contribution relates to the reduction of the orientation uncertainty by combining constraint propagation and a bisection approach
APA, Harvard, Vancouver, ISO, and other styles
19

Lassoued, Khaoula. "Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Full text
Abstract:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
APA, Harvard, Vancouver, ISO, and other styles
20

Vincke, Bastien. "Architectures pour des systèmes de localisation et de cartographie simultanées." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00770323.

Full text
Abstract:
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.
APA, Harvard, Vancouver, ISO, and other styles
21

Balakrishnan, Arjun. "Integrity Analysis of Data Sources in Multimodal Localization System." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG060.

Full text
Abstract:
Les véhicules intelligents sont un élément clé pour des systèmes de transport plus sûrs, efficaces et accessibles à travers le monde. En raison de la multitude de sources de données et de processus associés aux véhicules intelligents, la fiabilité de l'ensemble du système dépend fortement de la possibilité d'erreurs ou de mauvaises performances observées dans ses composants. Dans notre travail, nous nous intéressons à la tâche critique de localisation des véhicules intelligents et relevons les défis de la surveillance de l'intégrité des sources de données utilisées dans la localisation. La contribution clé de notre recherche est la proposition d'un nouveau protocole d'intégrité en combinant les concepts d'intégrité des systèmes d'information et les concepts d'intégrité existants dans les Systèmes de Transport Intelligents (STI). Un cadre de surveillance de l'intégrité basé sur le protocole d'intégrité proposé qui peut gérer les problèmes de localisation multimodale est développé. Dans la première étape, une preuve de concept pour ce cadre est développée sur la base d'une estimation de cohérence croisée des sources de données à l'aide de modèles polynomiaux. Sur la base des observations de la première étape, une représentation des données «Feature Grid» est proposée dans la deuxième étape et un prototype généralisé pour le cadre est mis en œuvre. Le cadre est testé sur les autoroutes ainsi que dans des scénarios urbains complexes pour démontrer que le cadre proposé est capable de fournir des estimations d'intégrité continue des sources de données multimodales utilisées dans la localisation intelligente des véhicules
Intelligent vehicles are a key component in humanity’s vision for safer, efficient, and accessible transportation systems across the world. Due to the multitude of data sources and processes associated with Intelligent vehicles, the reliability of the total system is greatly dependent on the possibility of errors or poor performances observed in its components. In our work, we focus on the critical task of localization of intelligent vehicles and address the challenges in monitoring the integrity of data sources used in localization. The primary contribution of our research is the proposition of a novel protocol for integrity by combining integrity concepts from information systems with the existing integrity concepts in the field of Intelligent Transport Systems (ITS). An integrity monitoring framework based on the theorized integrity protocol that can handle multimodal localization problems is formalized. As the first step, a proof of concept for this framework is developed based on cross-consistency estimation of data sources using polynomial models. Based on the observations from the first step, a 'Feature Grid' data representation is proposed in the second step and a generalized prototype for the framework is implemented. The framework is tested in highways as well as complex urban scenarios to demonstrate that the proposed framework is capable of providing continuous integrity estimates of multimodal data sources used in intelligent vehicle localization
APA, Harvard, Vancouver, ISO, and other styles
22

Karlsson, Anders, and Jon Bjärkefur. "Simultaneous Localisation and Mapping of Indoor Environments Using a Stereo Camera and a Laser Camera." Thesis, Linköpings universitet, Institutionen för systemteknik, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-64447.

Full text
Abstract:
This thesis describes and investigates different approaches to indoor mapping and navigation. A system capable of mapping large indoor areas with a stereo camera and/or a laser camera mounted to e.g. a robot or a human is developed. The approaches investigated in this report are either based on Simultaneous Lo- calisation and Mapping (SLAM) techniques, e.g. Extended Kalman Filter-SLAM (EKF-SLAM) and Smoothing and Mapping (SAM), or registration techniques, e.g. Iterated Closest Point (ICP) and Normal Distributions Transform (NDT).In SLAM, it is demonstrated that the laser camera can contribute to the stereo camera by providing accurate distance estimates. By combining these sensors in EKF-SLAM, it is possible to obtain more accurate maps and trajectories compared to if the stereo camera is used alone.It is also demonstrated that by dividing the environment into smaller ones, i.e. submaps, it is possible to build large maps in close to linear time. A new approach to SLAM based on EKF-SLAM and SAM, called Submap Joining Smoothing and Mapping (SJSAM), is implemented to demonstrate this.NDT is also implemented and the objective is to register two point clouds from the laser camera to each other so that the relative motion can be obtained. The NDT implementation is compared to ICP and the results show that NDT performs better at estimating the angular difference between the point clouds.
APA, Harvard, Vancouver, ISO, and other styles
23

Pelassa, Véronique. "Détection, localisation et étude des propriétés spectrales de sursauts gamma observés à haute énergie avec l'expérience Fermi." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20161/document.

Full text
Abstract:
Les sursauts gamma sont des sources astrophysiques parmi les plus brillantes du ciel. Dans le modèle standard actuel, leur émission prompte (X et gamma) est due à des particules chargées accélérées au sein de jets relativistes émis à la formation de trous noirs de masses stellaire. L'émission rémanente observée de la radio aux X serait due à l'interaction de ces jets avec le milieu interstellaire. Le LAT, détecteur à création de paire du télescope spatial Fermi, permet depuis juin 2008 l'étude du ciel gamma de 20 MeV à plus de 300 GeV avec des performances inégalées. Le GBM, détecteur de sources transitoires de Fermi (8 keV à 40 MeV) a observé ~450 sursauts gamma, dont ~18 ont été observés jusqu'au domaine du GeV. Une localisation précise de ces sursauts et la synergie de Fermi avec les autres observatoires permettent l'étude des rémanences associées et une meilleure interprétation des observations. L'étude de sursauts gamma de 8 keV au domaine du GeV est présentée. Les localisations obtenues avec le LAT sont étudiées ainsi que leurs erreurs. Des analyses spectrales des émissions promptes combinant les données du GBM et du LAT sont exposées, ainsi que leur interprétation. Une analyse alternative basée sur une sélection relâchée des données LAT est présentée et caractérisée. L'utilisation des événements d'énergies inférieures à 100 MeV améliore l'analyse temporelle et spectrale des émissions promptes. La recherche d'émission gamma prolongée est présentée, ainsi que l'étude de l'émission rémanente de GRB 090510 observé des UV au GeV par Fermi et Swift. Enfin, un modèle d'émission prompte par les chocs internes, développé à l'IAP, est comparé aux observations de Fermi
Gamma-Ray Bursts (GRB) are among the brightest gamma-ray sources in the sky. The current standard framework associates their prompt gamma-ray emission to charged particles accelerated in relativistic jets issued by newly-formed stellar-mass black holes. The radio to X-ray afterglow emission is due to the interaction between these jets and the interstellar medium.The LAT, pair-creation instrument onboard Fermi gamma-ray space telescope, performs unprecedented observation of the gamma-ray sky at energies of 20 MeV to over 300 GeV since its launch in june 2008. Fermi's transient sources detector, GBM, observed prompt emissions of ~450 GRB between 8 keV and 40 MeV. ~18 of these GRB were also studied up to GeV energies with the LAT. Accurate GRB localizations and Fermi's synergy with other observatories allows the study of GRB afterglows, and therefore a better interpretation of these observations.The analyses of GRB emissions between 8 keV to GeV energies is presented here. Localizations based on LAT data and their biases are studied. Spectral analyses of combined GBM and LAT data are shown, and their theoretical interpretations explained.An alternative analysis based on a relaxed selection of LAT data is presented and fully characterized. It allows to recover and use low-energy LAT statistics in temporal and spectral analyses of GRB prompt emission.Searches for long-lived high-energy emission from GRB are presented. The analysis of GRB 090510 afterglow emission from eV to GeV energies is described.Finally, Fermi bright GRB prompt emissions are compared to an internal shock model developed at IAP
APA, Harvard, Vancouver, ISO, and other styles
24

Courcoux-Caro, Milan. "Conception optimisée d’antenne pour de la localisation passive de sources acoustiques." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2022. http://www.theses.fr/2022ENTA0001.

Full text
Abstract:
L’objectif de ces travaux de thèse est de proposer une approche de conception d’antenne pour de la localisation de sources acoustiques aériennes ou sous-marines. Dans un premier temps, nous verrons comment décrire la propagation des ondes émises par les sources. Puis nous dresserons les différentes méthodes permettant d’estimer les positions des sources à partir des mesures acquises par les capteurs et du modèle de propagation. Le travail bibliographique sur le domaine de la localisation de sources acoustiques mettra en évidence l’importance des positions des capteurs dans les performances des estimateurs de positions de sources. Cela amènera donc à un second travail bibliographique sur la conception d’antenne, et plus précisément sur la sélection de positions de capteurs. L’état de l’art sur les méthodes de conception d’antenne nous permettra de proposer la méthode suivante : une sélection séquentielle bayésienne orientée par les données. Cette approche prend en compte l’information contenue dans les mesures acquises précédemment dans l’antenne pré-conçue, afin de sélectionner les futurs capteurs. L’application de cette approche est innovante dans un contexte de localisation de sources acoustiques. Dans un deuxième temps, des premiers résultats réalisés sur données synthétiques s’avèrent prometteurs quant à l’application de cette approche dans un cadre de localisation de sources acoustiques sous-marines. Les analyses fournies dans ce manuscrit permettront de juger la pertinence de cette approche dans le contexte testé, ainsi que d’évaluer et de comparer la performance de cette conception d’antenne par rapport à la littérature. Pour finir, nous appliquerons cette approche sur des données réelles provenant d’une expérience mise en place lors de la thèse. Le milieu de propagation sera aérien dans une salle fermée réverbérante avec un grand nombre de capteurs disponibles. Acquérir des données réelles permettront, en plus de l’évaluation des performances de notre approche, de fournir une nouvelle conception d’antenne. Celle-ci est conçue à partir de données synthétiques et est appliquée ensuite sur les données réelles
The objective of this thesis work is to propose an approach of array design for the localization of aerial or underwater acoustic sources. First, we will see how to describe the propagation of waves emitted by the sources. Then we will draw up the different methods allowing to estimate the positions of the sources from the measurements acquired by the sensors and from the propagation model. The bibliographic work on the field of acoustic source localization will highlight the importance of the sensors’ positions in the performance of the source position estimators. This will lead to a second bibliographic work on antenna design, and more precisely on the selection of sensor positions. The state of the art on antenna design methods will allow us to propose the following method: a sequential Bayesian data-driven selection. This approach takes into account the information contained in the measurements previously acquired in the pre-designed antenna, in order to select the future sensors. The application of this approach is innovative in the context of acoustic source localization. In a second step, first results realized on synthetic data prove to be promising for the application of this approach in an underwater acoustic source localization context. The analyses provided in this manuscript will allow to judge the relevance of this approach in the tested context, as well as to evaluate and compare the performance of this antenna design with the literature. Finally, we will apply this approach on real data from an experiment set up during the thesis. The propagation environment will be aerial in a closed reverberant room with a large number of available sensors. Acquiring real data will allow, in addition to evaluating the performance of our approach, to provide a new antenna design. This is designed from synthetic data and then applied to real data
APA, Harvard, Vancouver, ISO, and other styles
25

Essouayed, Elyess. "Développement d'une stratégie de localisation d'une source de contaminants en nappe : mesures innovantes et modélisation inverse." Thesis, Bordeaux 3, 2019. http://www.theses.fr/2019BOR30006/document.

Full text
Abstract:
La gestion et la dépollution de sites contaminés peuvent être complexe et demandent un investissement important pour localiser les sources de contaminations, zones émettant les flux de polluants les plus importants. Les travaux réalisés proposent une stratégie pour localiser les sources de pollution à partir de mesures in situ de flux massiques et de modélisation inverse. Ainsi, dans le cadre de l’étude, un outil innovant a d’abord été développé afin de mesurer la vitesse des eaux souterraines dans un puits. L’outil appelé DVT (Direct Velocity Tool) a permis de répondre aux contraintes imposées par les outils existants et de mesurer des vitesses d’écoulement très lentes. Des essais en laboratoire et des tests en site réels ont été réalisés et comparés à d’autres outils de mesure. Le DVT permet aussi indirectement de définir la portion de source conduisant au flux de polluant maximum, en le combinant avec une mesure locale de concentration. L’étude présente ensuite l’utilisation de la modélisation inverse pour localiser une source de contaminant et d’estimer les paramètres définissant les caractéristiques du domaine. Pour cela, l'étude s'est faite sur deux cas synthétiques. Pour adapter les méthodes à une véritable gestion de sites pollués, une stratégie itérative est développée en imposant un ajout limité de nouvelles observations à chaque phase de modélisation, basée sur l’approche de type Data Worth. Les résultats de la position de la source sur les deux cas synthétiques ont permis d’évaluer la méthode mise en place et de juger son applicabilité à une problématique réelle. Cette stratégie de localisation de source est par la suite testée sur un site réel à partir (i) de mesures in situ de flux massiques avec les vitesses au DVT et les concentrations et (ii) la modélisation. Les essais ont permis de cibler les forages à mettre en place sur site aidant à localiser la source. Néanmoins, en analysant plus précisément les résultats, le champ de conductivité hydraulique estimé par l'optimisation ne correspond pas à la réalité. De plus, les flux massiques de contaminants ainsi que le ratio des polluants du site, mettent en valeur deux panaches distincts. Une phase finale de modélisation a donc été lancée afin d'estimer (i) la présence potentielle de deux sources et (ii) la chimie de la zone étudiée. Les résultats de la stratégie sont comparés aux mesures geoprobe qui a pu confirmer la présence d’une des deux sources identifiées
Contaminated sites management and remediation can be complex and require a significant investment to locate the contaminant source, which delivers the higher pollutant mass fluxes. The study proposes a strategy for contaminant source localisation using in situ measurement and inverse modelling. First, an innovative tool was developed to measure groundwater velocity in a well. The developed tool called DVT (Direct Velocity Tool) made it possible to measure a low Darcy flux. Laboratory and field tests were performed with the DVT and compared to other velocity measurement tools. By combining the DVT with a local concentration measurement, it is possible to calculate the mass fluxes passing through wells. Then the thesis present the inverse modeling used for source localisation and parameters estimation. The study was done on two synthetics cases using the non-linear optimisation method. To adapt the method to a real management of polluted sites, an iterative strategy is developed by imposing a limited addition of new observations to each modeling phase. This strategy is base on the Data Worth approach. Source localisation results on the two synthetic cases made it possible to judge the method applicability to a real site problem. The source localisation strategy is then applied to a real site with (i) mass flux measurement with velocities (DVT) and concentrations and (ii) inverse modeling. The modeling phases made it possible to locate the new wells and helped the source localisation. Nevertheless, by analysing the results more precisely, the hydraulic conductivity field estimated by the optimisation did not correspond to reality. In addition, contaminant mass fluxes highlightes two distinct zones of flux. By analysing the pollutant ratio of the site, it appears that two plumes are potentially present. Thus, another inverse modeling phase has been tested (i) to locate the two potential sources and (ii) to estimate the chemistry of the site. Results of the strategy were compared to the geoprobe campaign which confirmed the second source location
APA, Harvard, Vancouver, ISO, and other styles
26

Dine, Abdelhamid. "Localisation et cartographie simultanées par optimisation de graphe sur architectures hétérogènes pour l’embarqué." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS303/document.

Full text
Abstract:
La localisation et cartographie simultanées connue, communément, sous le nom de SLAM (Simultaneous Localization And Mapping) est un processus qui permet à un robot explorant un environnement inconnu de reconstruire une carte de celui-ci tout en se localisant, en même temps, sur cette carte. Dans ce travail de thèse, nous nous intéressons au SLAM par optimisation de graphe. Celui-ci utilise un graphe pour représenter et résoudre le problème de SLAM. Une optimisation de graphe consiste à trouver une configuration de graphe (trajectoire et carte) qui correspond le mieux aux contraintes introduites par les mesures capteurs. L'optimisation de graphe présente une forte complexité algorithmique et requiert des ressources de calcul et de mémoire importantes, particulièrement si l'on veut explorer de larges zones. Cela limite l'utilisation de cette méthode dans des systèmes embarqués temps-réel. Les travaux de cette thèse contribuent à l'atténuation de la complexité de calcul du SLAM par optimisation de graphe. Notre approche s’appuie sur deux axes complémentaires : la représentation mémoire des données et l’implantation sur architectures hétérogènes embarquées. Dans le premier axe, nous proposons une structure de données incrémentale pour représenter puis optimiser efficacement le graphe. Dans le second axe, nous explorons l'utilisation des architectures hétérogènes récentes pour accélérer le SLAM par optimisation de graphe. Nous proposons, donc, un modèle d’implantation adéquat aux applications embarquées en mettant en évidence les avantages et les inconvénients des architectures évaluées, à savoir SoCs basés GPU et FPGA
Simultaneous Localization And Mapping is the process that allows a robot to build a map of an unknown environment while at the same time it determines the robot position on this map.In this work, we are interested in graph-based SLAM method. This method uses a graph to represent and solve the SLAM problem. A graph optimization consists in finding a graph configuration (trajectory and map) that better matches the constraints introduced by the sensors measurements. Graph optimization is characterized by a high computational complexity that requires high computational and memory resources, particularly to explore large areas. This limits the use of graph-based SLAM in real-time embedded systems. This thesis contributes to the reduction of the graph-based computational complexity. Our approach is based on two complementary axes: data representation in memory and implementation on embedded heterogeneous architectures. In the first axis, we propose an incremental data structure to efficiently represent and then optimize the graph. In the second axis, we explore the use of the recent heterogeneous architectures to speed up graph-based SLAM. We propose an efficient implementation model for embedded applications. We highlight the advantages and disadvantages of the evaluated architectures, namely GPU-based and FPGA-based System-On-Chips
APA, Harvard, Vancouver, ISO, and other styles
27

Awang, Salleh Dayang Nur Salmi Dharmiza. "Study of vehicle localization optimization with visual odometry trajectory tracking." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS601.

Full text
Abstract:
Au sein des systèmes avancés d’aide à la conduite (Advanced Driver Assistance Systems - ADAS) pour les systèmes de transport intelligents (Intelligent Transport Systems - ITS), les systèmes de positionnement, ou de localisation, du véhicule jouent un rôle primordial. Le système GPS (Global Positioning System) largement employé ne peut donner seul un résultat précis à cause de facteurs extérieurs comme un environnement contraint ou l’affaiblissement des signaux. Ces erreurs peuvent être en partie corrigées en fusionnant les données GPS avec des informations supplémentaires provenant d'autres capteurs. La multiplication des systèmes d’aide à la conduite disponibles dans les véhicules nécessite de plus en plus de capteurs installés et augmente le volume de données utilisables. Dans ce cadre, nous nous sommes intéressés à la fusion des données provenant de capteurs bas cout pour améliorer le positionnement du véhicule. Parmi ces sources d’information, en parallèle au GPS, nous avons considérés les caméras disponibles sur les véhicules dans le but de faire de l’odométrie visuelle (Visual Odometry - VO), couplée à une carte de l’environnement. Nous avons étudié les caractéristiques de cette trajectoire reconstituée dans le but d’améliorer la qualité du positionnement latéral et longitudinal du véhicule sur la route, et de détecter les changements de voies possibles. Après avoir été fusionnée avec les données GPS, cette trajectoire générée est couplée avec la carte de l’environnement provenant d’Open-StreetMap (OSM). L'erreur de positionnement latérale est réduite en utilisant les informations de distribution de voie fournies par OSM, tandis que le positionnement longitudinal est optimisé avec une correspondance de courbes entre la trajectoire provenant de l’odométrie visuelle et les routes segmentées décrites dans OSM. Pour vérifier la robustesse du système, la méthode a été validée avec des jeux de données KITTI en considérant des données GPS bruitées par des modèles de bruits usuels. Plusieurs méthodes d’odométrie visuelle ont été utilisées pour comparer l’influence de la méthode sur le niveau d'amélioration du résultat après fusion des données. En utilisant la technique d’appariement des courbes que nous proposons, la précision du positionnement connait une amélioration significative, en particulier pour l’erreur longitudinale. Les performances de localisation sont comparables à celles des techniques SLAM (Simultaneous Localization And Mapping), corrigeant l’erreur d’orientation initiale provenant de l’odométrie visuelle. Nous avons ensuite employé la trajectoire provenant de l’odométrie visuelle dans le cadre de la détection de changement de voie. Cette indication est utile dans pour les systèmes de navigation des véhicules. La détection de changement de voie a été réalisée par une somme cumulative et une technique d’ajustement de courbe et obtient de très bon taux de réussite. Des perspectives de recherche sur la stratégie de détection sont proposées pour déterminer la voie initiale du véhicule. En conclusion, les résultats obtenus lors de ces travaux montrent l’intérêt de l’utilisation de la trajectoire provenant de l’odométrie visuelle comme source d’information pour la fusion de données à faible coût pour la localisation des véhicules. Cette source d’information provenant de la caméra est complémentaire aux données d’images traitées qui pourront par ailleurs être utilisées pour les différentes taches visée par les systèmes d’aides à la conduite
With the growing research on Advanced Driver Assistance Systems (ADAS) for Intelligent Transport Systems (ITS), accurate vehicle localization plays an important role in intelligent vehicles. The Global Positioning System (GPS) has been widely used but its accuracy deteriorates and susceptible to positioning error due to factors such as the restricting environments that results in signal weakening. This problem can be addressed by integrating the GPS data with additional information from other sensors. Meanwhile, nowadays, we can find vehicles equipped with sensors for ADAS applications. In this research, fusion of GPS with visual odometry (VO) and digital map is proposed as a solution to localization improvement with low-cost data fusion. From the published works on VO, it is interesting to know how the generated trajectory can further improve vehicle localization. By integrating the VO output with GPS and OpenStreetMap (OSM) data, estimates of vehicle position on the map can be obtained. The lateral positioning error is reduced by utilizing lane distribution information provided by OSM while the longitudinal positioning is optimized with curve matching between VO trajectory trail and segmented roads. To observe the system robustness, the method was validated with KITTI datasets tested with different common GPS noise. Several published VO methods were also used to compare improvement level after data fusion. Validation results show that the positioning accuracy achieved significant improvement especially for the longitudinal error with curve matching technique. The localization performance is on par with Simultaneous Localization and Mapping (SLAM) SLAM techniques despite the drift in VO trajectory input. The research on employability of VO trajectory is extended for a deterministic task in lane-change detection. This is to assist the routing service for lane-level direction in navigation. The lane-change detection was conducted by CUSUM and curve fitting technique that resulted in 100% successful detection for stereo VO. Further study for the detection strategy is however required to obtain the current true lane of the vehicle for lane-level accurate localization. With the results obtained from the proposed low-cost data fusion for localization, we see a bright prospect of utilizing VO trajectory with information from OSM to improve the performance. In addition to obtain VO trajectory, the camera mounted on the vehicle can also be used for other image processing applications to complement the system. This research will continue to develop with future works concluded in the last chapter of this thesis
APA, Harvard, Vancouver, ISO, and other styles
28

Avril, Arnaud. "Isolement de fragments d'anticorps recombinants neutralisant des toxines à partir de primates non humains et localisation de l'épitope d'un anticorps." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENV044/document.

Full text
Abstract:
Les anticorps recombinants représentent une approche prometteuse pour améliorer le traitement et la prophylaxie des maladies causées par les armes biologiques. De tels anticorps peuvent être isolés à partir de primates non humains, dont l'immunisation est plus facile à concevoir et à réaliser que l'immunisation d'humains. Des chimpanzés (Pan troglodytes) et des macaques (Macaca mulatta et M. fascicularis) ont été utilisés pour de tels travaux, et notre analyse de séquences a démontré que l'utilisation de chimpanzés n'apporte pas d'avantage significatif malgré leur plus grande proximité phylogénétique avec l'Homme. La suite de ce travail a donc utilisé des macaques, plus facilement accessibles en France que les chimpanzés. Dans le cadre du projet européen AntiBotABE, des banques immunes exposées àla surface de phages ont été construites à partir de macaques (M. fascicularis) immunisés puis criblées, et des scFv neutralisant simultanément les toxines botuliques (BoNT) A1 et A2 en ciblant leurs chaines lourdes, et BoNT/E3 en ciblant sa chaine légère ont été isolés. D'autre part, un anticorps neutralisant de façon croisée la toxine létale et la toxine oedémateuse de Bacillus anthracis avait été précédemment isolé. Ses épitopes ont été localisés au cours de la présente thèse par une méthode tirant partie de cette réactivité croisée. Ils correspondent à la région [229-230]-[234-236] de la sous-unité LF (Lethal Factor) et à la région [229-230]-[234-236] de la sous-unité EF (Edema Factor). Le principe de cette localisation d'épitope pourrait être ré-employé pour localiser les épitopes des scFv neutralisant les BoNT
Recombinant antibodies represent a promising approach to improve the treatment andprophylaxis of diseases caused by bioweapons. Such antibodies may be isolated from nonhumanprimates, whose immunization is much easier to conceive and realized thanimmunization of humans. Chimpanzees (Pan troglodytes) and macaques (Macaca mulattaand M. fascicularis, particularly) have been utilized for such purposes, and our sequenceanalysis has demonstrated that using chimpanzees does not bring a significant advantagedespite their closer phylogenetic proximity with humans. The rest of this thesis has thusutilized macaques, easier to access in France than chimpanzees. In the context of theEuropean AntiBotABE project, phage-displayed immune libraries have been constructed fromimmunized macaques (M. fascicularis) then screened, and scFv simultaneously neutralizingbotulinum toxins (BoNT) A1 and A2 by targeting their heavy chains, and BoNT/E3 bytargeting its light chain were isolated. On the other side, an antibody cross-neutralizing thelethal toxin and the edema toxin of Bacillus anthracis had been formerly isolated. Its epitopeshave been mapped in the course of the present thesis by a method taking advantage of itscross-reactivity. They correspond to the [229-230]-[234-236] region of LF (Lethal Factor)subunit and to the [229-230]-[234-236] region of EF (Edema Factor) subunit. The principle ofthis epitope mapping could be re-employed to map the epitopes of BoNT-neutralizing scFv
APA, Harvard, Vancouver, ISO, and other styles
29

Semaan, Bernard. "Raffinement de la localisation d’images provenant de sites participatifs pour la mise à jour de SIG urbain." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0055/document.

Full text
Abstract:
Les villes sont des zones actives : tous les jours de nouvelles constructions ont lieu, des immeubles sont démolis ou des locaux commerciaux changent d'enseigne. Les gestionnaires des Systèmes d'information géographique de la ville ont pour but de mettre le plus à jour possible leurs modèles numériques de la ville. Ces modèles peuvent se composer de cartes en 2D mais aussi de modèles en 3D qui peuvent provenir d'une reconstruction à partir d'images. Ces dernières peuvent avoir été prises depuis le ciel comme depuis le sol. La cartographie participative, comme le permet la plateforme "OpenStreetMap.org", a émergé pour mettre à disposition de tous l'information géographique et maintenir les cartes 2D à jour par les utilisateurs de la plateforme. Dans le but d'améliorer le processus de mise à jour et suivant le même esprit que les approches participatives, nous proposons d'utiliser les plateformes de partage de photos comme "Flickr", "Twitter", etc. Les images téléchargées sur ces plates-formes possèdent une localisation imprécise de l'image sans information sur l'orientation de la photographie. Nous proposons alors un système qui aide à trouver une meilleure localisation et retrouve une information d'orientation de la photographie. Le système utilise les informations visuelles de l'image ainsi que les informations sémantiques. Pour cela nous présentons une chaîne de traitement automatisée composée de trois couches : la couche d'extraction et de pré-traitement des données, la couche d'extraction et de traitement des primitives, la couche de prise de décision. Nous présentons ensuite les résultats de l'ensemble de ce système que nous appelons "Data Gathering system for image Pose Estimation"(DGPE). Nous présentons aussi dans cette thèse une méthode que nous avons appelée "Segments Based Building Detection"(SBBD) pour la détection d'immeubles simples. Nous avons aussi testé cette méthode sous diverses conditions de prise de vue (occultations, variations climatiques, etc.). Nous comparons cette méthode de détection à une autre méthode de l'état de l'art en utilisant plusieurs bases d'images
Cities are active spots in the earth globe. They are in constant change. New building constructions, demolitions and business changes may apply on daily basis. City managers aim to keep as much as possible an updated digital model of the city. The model may consist of 2D maps but may also be a 3D reconstruction or a street imagery sequence. In order to share the geographical information and keep a 2D map updated, collaborative cartography was born. "OpenStreetMap.org" platform is one of the most known platforms in this field. In order to create an active collaborative database of street imagery we suggest using 2D images available on image sharing platforms like "Flickr", "Twitter", etc. Images downloaded from such platforms feature a rough localization and no orientation information. We propose a system that helps finding a better localization of the images and providing an information about the camera orientation they were shot with. The system uses both visual and semantic information existing in a single image. To do that, we present a fully automatic processing chain composed of three main layers: Data retrieval and preprocessing layer, Features extraction layer, Decision Making layer. We then present the whole system results combining both semantic and visual information processing results. We call our system Data Gathering system for image Pose Estimation (DGPE). We also present a new automatic method for simple architecture building detection we have developed and used in our system. This method is based on segments detected in the image and was called Segments Based Building Detection (SBBD). We test our method against some weather changes and occlusion problems. We finally compare our building detection results with another state-of-the-art method using several images databases
APA, Harvard, Vancouver, ISO, and other styles
30

Boscaro, Anthony. "Analyse multimodale et multicritères pour l'expertise et la localisation de défauts dans les composants électriques modernes." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK014/document.

Full text
Abstract:
Ce manuscrit de thèse illustre l’ensemble des travaux de recherche répondant aux problématiques de traitement des données issues des techniques de localisation de défauts. Cette phase de localisation étant une étape déterminante dans le processus d’analyse de défaillances des circuits submicroniques, il est primordial que l’analyste exploite les résultats de l’émission de lumière et du sondage laser. Cependant, ce procédé d’expertise reste séquentiel et dépend uniquement du jugement de l’expert. Cela induit une probabilité de localisation non quantifiée. Afin de pallier ces différents défis, nous avons développé tout au long de cette thèse, une méthodologie d’analyse multimodale et multicritères exploitant le caractère hétérogène et complémentaire des techniques d’émission de lumière et de sondage laser. Ce type d’analyse reposera sur des outils de haut niveau tels que le traitement du signal et la fusion de données, pour au final apporter une aide décisionnelle à l’expert à la fois qualitative et quantitative.Dans un premier temps, nous détaillerons l’ensemble des traitements utilisés en post-acquisition pour l’amélioration des données 1D et 2D. Par la suite, l’analyse spatio-temporelle des données en sondage laser sera explicitée. L’aide décisionnelle fera l’objet de la dernière partie de ce manuscrit, illustrant la méthode de fusion de données utilisée ainsi que des résultats de validation
The purpose of this manuscript is to exhibit the research work solving the issue of data processing stem from defect localization techniques. This step being decisive in the failure analysis process, scientists have to harness data coming from light emission and laser techniques. Nevertheless, this analysis process is sequential and only depends on the expert’s decision. This factor leads to a not quantified probability of localization. Consequently to solve these issues, a multimodaland multicriteria analysis has been developped, taking advantage of the heterogeneous and complementary nature of light emission and laser probing techniques. This kind of process is based on advanced level tools such as signal/image processing and data fusion. The final aim being to provide a quantitive and qualitative decision help for the experts.The first part of this manuscript is dedicated to the description of the entire process for 1D and 2D data enhancement. Thereafter, the spatio-temporal analysis of laser probing waveforms will be tackled. Finally, the last part highlights the decision support brought by data fusion
APA, Harvard, Vancouver, ISO, and other styles
31

Braga, Reinaldo. "LIDU : une approche basée sur la localisation pour l'identification de similarités d'intérêts entre utilisateurs dans les réseaux sociaux." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771457.

Full text
Abstract:
Grâce aux technologies web et mobiles, le partage de données entre utilisateurs a considérablement augmenté au cours des dernières années. Par exemple, les utilisateurs peuvent facilement enregistrer leurs trajectoires durant leurs déplacements quotidiens avec l'utilisation de récepteurs GPS et les mettre en relation avec les trajectoires d'autres utilisateurs. L'analyse des trajectoires des utilisateurs au fil du temps peut révéler des habitudes et préférences. Cette information peut être utilisée pour recommander des contenus à des utilisateurs individuels ou à des groupes d'utilisateurs avec des trajectoires ou préférences similaires. En revanche, l'enregistrement de points GPS génère de grandes quantités de données. Par conséquent, les algorithmes de clustering sont nécessaires pour analyser efficacement ces données. Dans cette thèse, nous nous concentrons sur l'étude des différentes solutions pour analyser les trajectoires, extraire les préférences et identifier les intérêts similaires entre les utilisateurs. Nous proposons un algorithme de clustering de trajectoires GPS. En outre, nous proposons un algorithme de corrélation basée sur les trajectoires des points proches entre deux ou plusieurs utilisateurs. Les résultats finaux ouvrent des perspectives intéressantes pour explorer les applications des réseaux sociaux basés sur la localisation.
APA, Harvard, Vancouver, ISO, and other styles
32

Kinnaert, Xavier. "Data processing of induced seismicity : estimation of errors and of their impact on geothermal reservoir models." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAH013/document.

Full text
Abstract:
La localisation de séismes induits ainsi que les mécanismes au foyer associés sont des outils fréquemment utilisés afin, entre autres, d’imager la structure d’un réservoir. Cette thèse présente une technique permettant de quantifier les erreurs associées à ces deux paramètres. Par cette méthode, incertitudes et imprécisions sont distinguées. La méthode a été appliquée aux sites de Soultz et de Rittershoffen pour étudier l’impact de plusieurs critères sur la localisation de la sismicité induite. Ainsi, il a été montré que l’utilisation de capteurs installés profondément dans des puits et qu’une bonne couverture sismique azimutale réduit sérieusement les incertitudes de localisation. Les incertitudes du modèle de vitesse, représentées par une distribution gaussienne des modèles avec un écart de 5% autour du modèle de référence, multiplient les incertitudes de localisation par un facteur 2 à 3. Des simplifications utilisées pour le calcul ou une mauvaise connaissance du milieu peuvent mener à des imprécisions de l’ordre de 10% spatialement non isotropes. Ainsi, les structures du sous-sol peuvent être déformées dans les interprétations. L’application d’un tir de calibration peut néanmoins corriger ce fait en grande partie. L’étude d’erreurs associées aux mécanismes au foyer ne semble cependant pas conduire aux mêmes conclusions. Le biais angulaire peut certes être augmenté par l’omission de la faille dans le modèle de vitesse, mais dans plusieurs cas il est le même que dans le cas idéal voire diminué. En outre, une meilleure couverture sismique améliorerait toujours le mécanisme au foyer obtenu. Ainsi, il n’est pas conseillé d’imager un réservoir en n’utilisant que la localisation de séismes, mais une combinaison de plusieurs paramètres sismiques pourrait s’avérer efficace. La méthode appliquée dans le cadre de cette thèse pourra servir pour d’autres sites à condition d’en avoir une bonne connaissance a priori
Induced seismicity location and focal mechanisms are commonly used to image the sub-surface designin reservoirs among other tasks. In this Ph.D. the inaccuracies and uncertainties on earthquake location and focal mechanisms are quantified using a three-step method. The technique is applied to the geothermal sites of Soultz and Rittershoffen to investigate the effect of several criteria on thee arthquake location. A good azimuthal seismic coverage and the use of seismic down-hole sensors seriously decrease the location uncertainty. On the contrary, velocity model uncertainties, represented by a 5% Gaussian distribution of the velocity model around the reference model, will multiply location uncertainties by a factor of 2 to 3. An incorrect knowledge of the sub-surface or the simplifications performed before the earthquake location can lead to biases of 10% of the vertical distance separating the source and the stations with a non-isotropic spatial distribution. Hence the sub-surface design maybe distorted in the interpretations. To prevent from that fact, the calibration shot method was proved to be efficient. The study on focal mechanism errors seems to lead to different conclusions. Obviously, the angular bias may be increased by neglecting the fault in the velocity. But, it may also be the same as or even smaller than the bias calculated for the case simulating a perfect knowledge of the medium of propagation. Furthermore a better seismic coverage always leads to smaller angular biases. Hence,it is worth advising to use more than only earthquake location in order to image a reservoir. Other geothermal sites and reservoirs may benefit from the method developed here
Die korrekte Lokalisierung von induzierter Seismizität und den dazugehörigen Herdflächenlösungensind sehr wichtige Parameter. So werden zum Beispiel die Verteilung der Erdbeben und die Orientierung ihrer Herdflächenlösungen dazu benutzt um in der Tiefe liegende Reservoirs zulokalisieren und abzubilden. In dieser Doktorarbeit wird eine Technik vorgeschlagen um diemethodisch bedingten Fehler zu quantifizieren. Mit dieser Methode werden die verschiedenen Fehlerquellen, die Unsicherheiten und die Fehler im Modell getrennt. Die Technik wird für die geothermischen Felder in Soultz und in Rittershoffen benutzt um den Einfluss verschiedener Parameter (Annahmen) auf die Lokalisierung der induzierten Seismizität zu bestimmen. Es wurde festgestellt, dass Bohrlochseismometer und eine gute azimutale Verteilung der seismischen Stationen die Unbestimmtheiten verkleinern. Die Geschwindigkeitsunbestimmheiten, die durch eine Gauss-Verteilung mit 5% Fehler dargestellt werden, vervielfachen die Lokalisierungsungenauigkeiten um einen Faktor 2 bis 3. Eine ungenaue Kenntnis des Untergrunds oder die verwendete vereinfachte Darstellung der Geschwindigkeitsverhältnisse im Untergrund (notwendig um die synthetischen Rechnungen durchführen zu können) führen zu anisotropen Abweichungen und Fehlern in der Herdtiefe von bis zu 10%. Diese können die Interpretationen des Untergrunds deutlich verfälschen. Ein “calibration shot” kann diese Fehler korrigieren. Leider können die Fehler für die Herdflächenlösungen nicht in derselben Weise korrigiert werden. Es erscheint daher als keine gute Idee, ein Reservoir nur über die Lokalisierung von Erdbeben zu bestimmen. Eine Kombination mehrerer seismischer Methoden scheint angezeigt. Die hier besprochene Methode kann als Grundlage dienen für die Erkundung anderer (geothermischer)
APA, Harvard, Vancouver, ISO, and other styles
33

Alhmiedat, Tareq Ali. "Tracking mobile targets through Wireless Sensor Networks." Thesis, Loughborough University, 2009. https://dspace.lboro.ac.uk/2134/5524.

Full text
Abstract:
In recent years, advances in signal processing have led to small, low power, inexpensive Wireless Sensor Network (WSN). The signal processing in WSN is different from the traditional wireless networks in two critical aspects: firstly, the signal processing in WSN is performed in a fully distributed manner, unlike in traditional wireless networks; secondly, due to the limited computation capabilities of sensor networks, it is essential to develop an energy and bandwidth efficient signal processing algorithms. Target localisation and tracking problems in WSNs have received considerable attention recently, driven by the necessity to achieve higher localisation accuracy, lower cost, and the smallest form factor. Received Signal Strength (RSS) based localisation techniques are at the forefront of tracking research applications. Since tracking algorithms have been attracting research and development attention recently, prolific literature and a wide range of proposed approaches regarding the topic have emerged. This thesis is devoted to discussing the existing WSN-based localisation and tracking approaches. This thesis includes five studies. The first study leads to the design and implementation of a triangulation-based localisation approach using RSS technique for indoor tracking applications. The presented work achieves low localisation error in complex environments by predicting the environmental characteristics among beacon nodes. The second study concentrates on investigating a fingerprinting localisation method for indoor tracking applications. The proposed approach offers reasonable localisation accuracy while requiring a short period of offline computation time. The third study focuses on designing and implementing a decentralised tracking approach for tracking multiple mobile targets with low resource requirements. Despite the interest in target tracking and localisation issues, there are few systems deployed using ZigBee network standard, and no tracking system has used the full features of the ZigBee network standard. Tracking through the ZigBee is a challenging task when the density of router and end-device nodes is low, due to the limited communication capabilities of end-device nodes. The fourth study focuses on developing and designing a practical ZigBee-based tracking approach. To save energy, different strategies were adopted. The fifth study outlines designing and implementing an energy-efficient approach for tracking applications. This study consists of two main approaches: a data aggregation approach, proposed and implemented in order to reduce the total number of messages transmitted over the network; and a prediction approach, deployed to increase the lifetime of the WSN. For evaluation purposes, two environmental models were used in this thesis: firstly, real experiments, in which the proposed approaches were implemented on real sensor nodes, to test the validity for the proposed approaches; secondly, simulation experiments, in which NS-2 was used to evaluate the power-consumption issues of the two approaches proposed in this thesis.
APA, Harvard, Vancouver, ISO, and other styles
34

Toussaint, Renaud. "Fracturation des roches en compression : le processus de localisation en tant que phénomène critique." Phd thesis, Université Rennes 1, 2001. http://tel.archives-ouvertes.fr/tel-00012208.

Full text
Abstract:
La fracturation fragile des roches soumises à des cisaillements sous
fortes pressions de confinement présente des traits communs avec une transition de phase thermodynamique: la déformation se localise rapidement à l'échelle des grains dès la sortie du régime élastique réversible, tout en restant d'abord homogène aux grandes échelles. Alors que les microfractures individuelles croissent encore de façon stable, apparaissent autour de la contrainte pic des structures de grande échelle (bandes de cisaillement) qui brisent spontanément les symétries translationnelle et rotationnelle du problème.

Analysant des données déformation/contrainte obtenues sur diverses
roches et conditions de charge, on montre que celles-ci présentent
un haut degré d'universalité, à savoir que la pente de charge est une loi de puissance de l'écart à la contrainte pic, avec un exposant identique dans les différentes experiences à la résolution expérimentale près. Cette loi est vérifiée pratiquement de la sortie du régime élastique, à la contrainte pic.

Le fait que cet exposant semble indépendant de la roche, conjoint aux brisures de symétries et à l'émergence d'une structuration macroscopique, est typique d'un point critique. En conséquence, on développe à partir d'un simple postulat de maximisation d'entropie un formalisme de physique statistique adapté à ce problème. On obtient ainsi une distribution de probabilité sur les configurations de microfractures, en fonction de l'énergie nécessaire à leur formation. partir d'un modèle pour ces énergies basé sur des interactions élastiques, on obtient un système présentant deux transitions de phase: la première correspond à l'initiation de l'activité des microfractures, la seconde à la localisation macroscopique.
Ce modèle prédit à l'approche de la seconde transition le comportement quadratique observé dans les données, alors que le module d'Young effectif du matériau reste fini.
APA, Harvard, Vancouver, ISO, and other styles
35

Chemloul, Mohamed. "Etude et réalisation d'un système rapide pour la localisation des rayons X dans les détecteurs gazeux." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10014.

Full text
Abstract:
Le projet comprend la realisation d'un systeme de detection de rayons x pour des experiences de diffraction aupres d'une source de lumiere synchrotron. Deux cellules de detection ont ete realisees: la premiere est un detecteur 1d ayant une largeur utile de 200 mm. La localisation de la position est faite par une ligne a retard lc de 500 ns. En ce qui concerne la deuxieme, la fenetre de detection utile est de 100 mm 10 mm. La determination de la position sur la grande dimension se fait grace a une ligne a retard mixte rlc combinant la structure d'une ligne a retard classique et celle d'une division de charges. Cette ligne est issue de l'etude d'une methode de ponderation par retard realisee dans le cadre de ce travail. La localisation de la deuxieme coordonnee est realisee par une lecture parallele des fils d'anode. L'electronique de traitement du signal est commune aux deux detecteurs. En effet, les deux methodes de localisation utilisees requierent une mesure de temps rapide et precise. Aussi, un convertisseur de temps numerique a ete realise specialement pour ces systemes. Les performances de ce convertisseur permettent des acquisitions rapides (au dela du mhz) bien adaptees aux demandes des utilisateurs. Le systeme d'acquisition est base sur une carte au standard pc pilotee par un logiciel sous l'environnement windows
APA, Harvard, Vancouver, ISO, and other styles
36

Bader, Kaci. "Tolérance aux fautes pour la perception multi-capteurs : application à la localisation d'un véhicule intelligent." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2161/document.

Full text
Abstract:
La perception est une entrée fondamentale des systèmes robotiques, en particulier pour la localisation, la navigation et l'interaction avec l'environnement. Or les données perçues par les systèmes robotiques sont souvent complexes et sujettes à des imprécisions importantes. Pour remédier à ces problèmes, l'approche multi-capteurs utilise soit plusieurs capteurs de même type pour exploiter leur redondance, soit des capteurs de types différents pour exploiter leur complémentarité afin de réduire les imprécisions et les incertitudes sur les capteurs. La validation de cette approche de fusion de données pose deux problèmes majeurs.Tout d'abord, le comportement des algorithmes de fusion est difficile à prédire,ce qui les rend difficilement vérifiables par des approches formelles. De plus, l'environnement ouvert des systèmes robotiques engendre un contexte d'exécution très large, ce qui rend les tests difficiles et coûteux. L'objet de ces travaux de thèse est de proposer une alternative à la validation en mettant en place des mécanismes de tolérance aux fautes : puisqu'il est difficile d'éliminer toutes les fautes du système de perception, on va chercher à limiter leurs impacts sur son fonctionnement. Nous avons étudié la tolérance aux fautes intrinsèquement permise par la fusion de données en analysant formellement les algorithmes de fusion de données, et nous avons proposé des mécanismes de détection et de rétablissement adaptés à la perception multi-capteurs. Nous avons ensuite implémenté les mécanismes proposés pour une application de localisation de véhicules en utilisant la fusion de données par filtrage de Kalman. Nous avons finalement évalué les mécanismes proposés en utilisant le rejeu de données réelles et la technique d'injection de fautes, et démontré leur efficacité face à des fautes matérielles et logicielles
Perception is a fundamental input for robotic systems, particularly for positioning, navigation and interaction with the environment. But the data perceived by these systems are often complex and subject to significant imprecision. To overcome these problems, the multi-sensor approach uses either multiple sensors of the same type to exploit their redundancy or sensors of different types for exploiting their complementarity to reduce the sensors inaccuracies and uncertainties. The validation of the data fusion approach raises two major problems. First, the behavior of fusion algorithms is difficult to predict, which makes them difficult to verify by formal approaches. In addition, the open environment of robotic systems generates a very large execution context, which makes the tests difficult and costly. The purpose of this work is to propose an alternative to validation by developing fault tolerance mechanisms : since it is difficult to eliminate all the errors of the perceptual system, We will try to limit impact in their operation. We studied the inherently fault tolerance allowed by data fusion by formally analyzing the data fusion algorithms, and we have proposed detection and recovery mechanisms suitable for multi-sensor perception, we implemented the proposed mechanisms on vehicle localization application using Kalman filltering data fusion. We evaluated the proposed mechanims using the real data replay and fault injection technique
APA, Harvard, Vancouver, ISO, and other styles
37

Boskovitz, Agnes, and abvi@webone com au. "Data Editing and Logic: The covering set method from the perspective of logic." The Australian National University. Research School of Information Sciences and Engineering, 2008. http://thesis.anu.edu.au./public/adt-ANU20080314.163155.

Full text
Abstract:
Errors in collections of data can cause significant problems when those data are used. Therefore the owners of data find themselves spending much time on data cleaning. This thesis is a theoretical work about one part of the broad subject of data cleaning - to be called the covering set method. More specifically, the covering set method deals with data records that have been assessed by the use of edits, which are rules that the data records are supposed to obey. The problem solved by the covering set method is the error localisation problem, which is the problem of determining the erroneous fields within data records that fail the edits. In this thesis I analyse the covering set method from the perspective of propositional logic. I demonstrate that the covering set method has strong parallels with well-known parts of propositional logic. The first aspect of the covering set method that I analyse is the edit generation function, which is the main function used in the covering set method. I demonstrate that the edit generation function can be formalised as a logical deduction function in propositional logic. I also demonstrate that the best-known edit generation function, written here as FH (standing for Fellegi-Holt), is essentially the same as propositional resolution deduction. Since there are many automated implementations of propositional resolution, the equivalence of FH with propositional resolution gives some hope that the covering set method might be implementable with automated logic tools. However, before any implementation, the other main aspect of the covering set method must also be formalised in terms of logic. This other aspect, to be called covering set correctibility, is the property that must be obeyed by the edit generation function if the covering set method is to successfully solve the error localisation problem. In this thesis I demonstrate that covering set correctibility is a strengthening of the well-known logical properties of soundness and refutation completeness. What is more, the proofs of the covering set correctibility of FH and of the soundness / completeness of resolution deduction have strong parallels: while the proof of soundness / completeness depends on the reduction property for counter-examples, the proof of covering set correctibility depends on the related lifting property. In this thesis I also use the lifting property to prove the covering set correctibility of the function defined by the Field Code Forest Algorithm. In so doing, I prove that the Field Code Forest Algorithm, whose correctness has been questioned, is indeed correct. The results about edit generation functions and covering set correctibility apply to both categorical edits (edits about discrete data) and arithmetic edits (edits expressible as linear inequalities). Thus this thesis gives the beginnings of a theoretical logical framework for error localisation, which might give new insights to the problem. In addition, the new insights will help develop new tools using automated logic tools. What is more, the strong parallels between the covering set method and aspects of logic are of aesthetic appeal.
APA, Harvard, Vancouver, ISO, and other styles
38

Michot, Julien. "Recherche linéaire et fusion de données par ajustement de faisceaux : application à la localisation par vision." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00626489.

Full text
Abstract:
Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d'une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l'ajustement de faisceaux. Cette thèse présente tout d'abord une technique de recherche de l'amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l'algorithme d'ajustement de faisceaux. L'approximation de l'erreur de reprojection par une distance algébrique rend possible le calcul analytique d'une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d'un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d'orientation, de position et d'échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d'utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l'application ciblée (un odomètre pour la localisation d'un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l'ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l'orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d'ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système.
APA, Harvard, Vancouver, ISO, and other styles
39

Sigwarth, Olivier. "Localisation faible de la lumière par un gaz d'atomes froids en présence d'un champ magnétique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00006473.

Full text
Abstract:
Cette thèse porte sur la localisation faible de la lumière par un gaz
d'atomes froids en présence d'un champ magnétique. Plus précisément,
elle est consacrée à l'augmentation cohérente de l'intensité diffuse
dans la direction arrière, due à l'interférence entre chemins de
diffusion multiple rencontrant les mêmes diffuseurs dans l'ordre inverse.
Nous présentons des résultats théoriques rendant compte d'observations
expérimentales récentes sur la forme et l'amplitude du profil d'intensité.
En particulier, nous montrons qu'un champ
magnétique peut en augmenter l'amplitude si les atomes possèdent un niveau
fondamental dégénéré, à l'opposé de ce qui se produit pour des
diffuseurs classiques. Nous discutons l'intérêt de ce résultat en vue
de la localisation forte de la lumière.
APA, Harvard, Vancouver, ISO, and other styles
40

Vellettaz, Nicolas. "Optimisation d'un détecteur gazeux à micro-pistes destiné à la localisation à deux dimensions des neutrons thermiques." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10091.

Full text
Abstract:
Le detecteur a micro-pistes, presente ici, est destine la localisation a deux dimensions des neutrons thermiques. La plaque, de dimensions 127 mm x 127 mm x 0. 45 mm, est un substrat a conduction electronique schott s8900, qui a un comportement stable dans le temps. Sur la face avant, anodes (de largeur 12 m) et cathodes (de largeur 500 m) en chrome sont alternativement deposees, avec un pas de 1 mm. Sur la face arriere, des electrodes de largeur 960 m sont placees perpendiculairement aux premieres, avec le meme pas. La surface sensible est de 80 mm x 80 mm. Une ligne resistive, deposee sur la plaque, permet la localisation par division de charge. Le systeme d'acquisition comprend 5 amplificateurs et 5 convertisseurs analogue en digital, couples avec une carte multiparametrique installee dans un pc. La configuration actuelle permet l'acquisition en temps reel d'images a deux dimensions, avec une resolution spatiale de 1. 3 mm selon les deux directions.
APA, Harvard, Vancouver, ISO, and other styles
41

Li, Franck. "Lane-level vehicle localization with integrity monitoring for data aggregation." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2458/document.

Full text
Abstract:
Les informations contenues dans les cartes routières numériques revêtent une importance grandissante dans le domaine des véhicules intelligents. La prise en compte d’environnements de plus en plus complexes a augmenté le niveau de précision exigé des informations cartographiques. Les cartes routières numériques, considérées ici comme des bases de données géographiques, contiennent des informations contextuelles sur le réseau routier, facilitant la compréhension correcte de l’environnement. En les combinant avec les données provenant des capteurs embarqués, une représentation plus fine de l’environnement peut être obtenue, améliorant grandement la compréhension de contexte du véhicule et la prise de décision. La performance des différents capteurs peut varier grandement en fonction du lieu considéré, ceci étant principalement dû à des facteurs environnementaux. Au contraire, une carte peut fournir ses informations de manière fiable, sans être affectée par ces éléments extérieurs, mais pour cela, elle doit reposer sur un autre élément essentiel : une source de localisation. Le secteur automobile utilise les systèmes de localisation globale par satellite (GNSS) à des fins de localisation absolue, mais cette solution n’est pas parfaite, étant soumise à différentes sources d’erreur. Ces erreurs sont elles aussi dépendantes de l’environnent d’évolution du véhicule (par exemple, des multi-trajets causés par des bâtiments). Nous sommes donc en présence de deux systèmes centraux, dont les performances sont d´dépendantes du lieu considéré. Cette étude se focalise sur leur dénominateur commun : la carte routière numérique, et son utilisation en tant qu’outil d’évaluation de leur performance. L’idée développée durant cette thèse est d’utiliser la carte en tant que canevas d’apprentissage, pour stocker des informations géoréférencées sur la performance des diésèrent capteurs équipant le véhicule, au cours de trajets répétitifs. Pour cela, une localisation robuste, relative à la carte, est nécessaire au travers d’une méthode de map-matching. La problématique principale réside dans la différence de précision entre la carte et le positionnement GNSS, créant des situations ambigües. Durant cette thèse, un algorithme de map-matching a été conçu pour gérer ces ambigüités en fournissant des hypothèses multiples lorsque nécessaire. L’objectif est d’assurer l’intégrité de l’algorithme en retournant un ensemble d’hypothèses contenant l’hypothèse correcte avec une grande probabilité. Cet algorithme utilise les capteurs proprioceptifs dans une approche de navigation à l’estime aidée d’informations cartographiques. Une procédure d’évaluation de cohérence, utilisant le GNSS comme information redondante de positionnement est ensuite appliquée, visant à isoler une hypothèse cohérente unique qui pourra ainsi être utilisée avec confiance dans le processus d’écriture dans la carte. L’utilisation de la carte numérique en écriture/lecture a été évaluée et la procédure complète d’écriture a été testée sur des données réelles, enregistrées par des véhicules expérimentaux sur route ouverte
The information stored in digital road maps has become very important for intelligent vehicles. As intelligent vehicles address more complex environments, the accuracy requirements for this information have increased. Regarded as a geographic database, digital road maps contain contextual information about the road network, crucial for a good understanding of the environment. When combined with data acquired from on-board sensors, a better representation of the environment can be made, improving the vehicle’s situation understanding. Sensors performance can vary drastically depending on the location of the vehicle, mainly due to environmental factors. Comparatively, a map can provide prior information more reliably but to do so, it depends on another essential component: a localization system. Global Navigation Satellite Systems (GNSS) are commonly used in automotive to provide an absolute positioning of the vehicle, but its accuracy is not perfect: GNSS are prone to errors, also depending greatly on the environment (e.g., multipaths). Perception and localization systems are two important components of an intelligent vehicle whose performances vary in function of the vehicle location. This research focuses on their common denominator, the digital road map, and its use as a tool to assess their performance. The idea developed during this thesis is to use the map as a learning canvas, to store georeferenced information about the performance of the sensors during repetitive travels. This requires a robust localization with respect to the map to be available, through a process of map-matching. The main problematic is the discrepancy between the accuracy of the map and of the GNSS, creating ambiguous situations. This thesis develops a map-matching algorithm designed to cope with these ambiguities by providing multiple hypotheses when necessary. The objective is to ensure the integrity of the result by returning a hypothesis set containing the correct matching with high probability. The method relies on proprioceptive sensors via a dead-reckoning approach aided by the map. A coherence checking procedure using GNSS redundant information is then applied to isolate a single map-matching result that can be used to write learning data with confidence in the map. The possibility to handle the digital map in read/write operation has been assessed and the whole writing procedure has been tested on data recorded by test vehicles on open roads
APA, Harvard, Vancouver, ISO, and other styles
42

Rollings, Graham. "Using evolutionary algorithms to resolve 3-dimensional geometries encoded in indeterminate data-sets." Thesis, University of Exeter, 2011. http://hdl.handle.net/10036/4326.

Full text
Abstract:
This thesis concerns the development of optimisation algorithms to determine the relative co-location, (localisation), of a number of freely-flying 'Smart Dust mote' sensor platform elements using a non-deterministic data-set derived from the duplex wireless transmissions between elements. Smart dust motes are miniaturised, microprocessor based, electronic sensor platforms, frequently used for a wide range of remote environmental monitoring applications; including specific climate synoptic observation research and more general meteorology. For the application proposed in this thesis a cluster of the notional smart dust motes are configured to imitate discrete 'Radio Drop Sonde' elements of the wireless enabled monitoring system in use by meteorological research organisations worldwide. This cluster is modelled in software in order to establish the relative positions during the 'flight' ; the normal mode of deployment for the Drop Sonde is by ejection from an aeroplane into an upper-air zone of interest, such as a storm cloud. Therefore the underlying research question is, how to track a number of these independent, duplex wireless linked, free-flying monitoring devices in 3-dimensions and time (to give the monitored data complete spatio-temporal validity). This represents a significant practical challenge, the solution applied in this thesis was to generate 3-dimensional geometries using the only 'real-time' data available; the Radio Signal Strength Indicator (RSSI) data is generated through the 'normal' duplex wireless communications between motes. Individual RSSI values can be considered as a 'representation of the distance magnitude' between wireless devices; when collated into a spatio-temporal data-set it 'encodes' the relative, co-locational, 3-dimensional geometry of all devices in the cluster. The reconstruction, (or decoding), of the 3-dimensional geometries encoded in the spatio-temporal data-set is a complex problem that is addressed through the application of various algorithms. These include, Random Search, and optimisation algorithms, such as the Stochastic Hill-climber, and various forms of Evolutionary Algorithm. It was found that the performance of the geometric reconstruction could be improved through identification of salient aspects of the modelled environment, the result was heuristic operators. In general these led to a decrease in the time taken to reach a convergent solution or a reduction in the number of candidate search space solutions that must be considered. The software model written for this thesis has been implemented to generalise the fundamental characteristics of an optimisation algorithm and to incorporate them into a generic software framework; this then provides the common code to all model algorithms used.
APA, Harvard, Vancouver, ISO, and other styles
43

Amadou, Kountché Djibrilla. "Localisation dans les bâtiments des personnes handicapées et classification automatique de données par fourmis artificielles." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4021/document.

Full text
Abstract:
Le concept du « smart » envahit de plus en plus notre vie quotidienne. L’exemple type est sans doute le smartphone. Celui-ci est devenu au fil des ans un appareil incontournable. Bientôt, c’est la ville, la voiture, la maison qui seront « intelligentes ». L’intelligence se manifeste par une capacité d’interaction et de prise de décision entre l’environnement et l’utilisateur. Ceci nécessite des informations sur les changements d’états survenus des deux côtés. Les réseaux de capteurs permettent de collecter ces données, de leur appliquer des pré-traitements et de les transmettre aux applications. Ces réseaux de par certaines de leurs caractéristiques se rapprochent de l’intelligence collective, dans le sens, où des entités de faibles capacités se coordonnent automatiquement, sans intervention humaine, de façon décentralisée et distribuée pour accomplir des tâches complexes. Ces méthodes bio-inspirées ont servi à la résolution de plusieurs problèmes, surtout l’optimisation, ce qui nous a encouragé à étudier la possibilité de les utiliser pour les problèmes liés à l’Ambient Assisted Living ou AAL et à la classification automatique de données. L’AAL est un sous-domaine des services dits basés sur le contexte, et a pour objectifs de faciliter la vie des personnes âgées et handicapées dans leurs défis quotidiens. Pour ce faire, il détermine le contexte et, sur cette base, propose divers services. Deux éléments du contexte nous ont intéressé : le handicap et la position. Bien que la détermination de la position (localisation, positionnement) se fasse à l’extérieur des bâtiments avec des précisions très satisfaisantes, elle rencontre plusieurs difficultés à l’intérieur des bâtiments, liées à la propagation des ondes électromagnétiques dans les milieux difficiles, aux coûts des systèmes, à l’interopérabilité, etc. Nos travaux se sont intéressés au positionnement des personnes handicapées à l’intérieur de bâtiments en utilisant un réseau de capteurs afin de déterminer les caractéristiques de l’onde électromagnétique (puissance, temps, angle) pour estimer la position par méthodes géométriques (triangulation, latération), méthodes de fingerprinting (k plus proches voisins), par des filtres baysiens (filtre de Kalman). L’application est d’offrir des services types AAL tel que la navigation. Nous avons élargi la notion de réseau de capteurs pour prendre en compte tout appareil capable d’émettre et de recevoir une onde électromagnétique et se trouvant dans l’environnement. Nous avons aussi appliqué l’algorithme API sur la classification automatique de données. Enfin, nous avons proposé une architecture à middleware pour la localisation indoor
The concept of « smart » invades more and more our daily life. A typical example is the smartphone, which becames by years an essential device. Soon, it’s the city, the car and the home which will become « smart ». The intelligence is manifested by the ability for the environment to interact and to take decisons in its relationships with users and other environments. This needs information on state changes occurred on both sides. Sensor networks allow to collect these data, to apply on them some pre-processings and to transmit them. Sensor network, towards some of their caracteristics are closed to Swarm Intelligence in the sense that small entities with reduced capababilities can cooperate automatically, in unattended, decentralised and distributed manner in order to accomplish complex tasks. These bio-inspired methods have served as basis for the resolution of many problems, mostly optimization and this insipired us to apply them on problems met in Ambient Assisted Living and on the data clustering problem. AAL is a sub-field of context-aware services, and its goals are to facilitate the everyday life of elderly and disable people. These systems determine the context and then propose different kind of services. We have used two important elements of the context : the position and the disabilty. Although positioning has very good precision outdoor, it faces many challenges in indoor environments due to the electromagnetic wave propagation in harsh conditions, the cost of systems, interoperabilty, etc. Our works have been involved in positioning disabled people in indoor environment by using wireless sensor network for determining the caracteristics of the electromagnetic wave (signal strenght, time, angle) for estimating the position by geometric methods (triangulation, lateration), fingerprinting methods (k-nearest neighbours), baysiens filters (Kalman filter). The application is to offer AAL services like navigation. Therefore we extend the definition of sensor node to take into account any device, in the environment, capable of emiting and receiving a signal. Also, we have studied the possibility of using Pachycondylla Apicalis for data clustering and for indoor localization by casting this last problem as data clustering problem. Finally we have proposed a system based on a middleware architecture
APA, Harvard, Vancouver, ISO, and other styles
44

Bachir, Danya. "Estimating urban mobility with mobile network geolocation data mining." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL004/document.

Full text
Abstract:
Dans les prochaines décennies, la circulation et les temps de trajets augmenteront drastiquement en raison du fort taux d'accroissement de la population urbaine. L'augmentation grandissante de la congestion sur les réseaux de transports menace le bon fonctionnement des villes à plusieurs niveaux, tels que le bien-être des citoyens, la santé, l'économie, le tourisme ou la pollution.Ainsi, il est urgent, pour les autorités locales et nationales, de promouvoir l'innovation pour la planification urbaine, à l'aide d'une politique de soutien à l'innovation et de prises de mesures radicales.Pour guider les processus de décisions, il est crucial d'estimer, analyser et comprendre la mobilité urbaine au quotidien.Traditionnellement, les informations sur les déplacements des populations était collectées via des rapports nationaux et locaux, tels que les recensements et les enquêtes. Toutefois, ces derniers ont un coût important, induisant une très faible fréquence de mise-à-jour, ainsi qu'une temporalité restreinte des données.En parallèle, les technologies de l'information et de la communication fournissent une quantité de données de mobilité sans précédent, au jour le jour, toutes catégories de population confondues. En particulier, les téléphones portables accompagnent désormais la majorité des citoyens lors de leurs déplacements et activités du quotidien. Dans cette thèse, nous estimons la mobilité urbaine par l'exploration des données du réseau mobile, qui sont collectées en temps réel, sans coût additionnel, par les opérateurs télécoms. Le traitement des données brutes est non-trivial en raison de leur nature sporadique et de la faible précision spatiale couplée à un bruit complexe.La thèse adresse deux problématiques via un schéma d'apprentissage faiblement supervisé (i.e., utilisant très peu de données labellisées) combinant plusieurs sources de données de mobilité. Dans un premier temps, nous estimons les densités de population et le nombre de visiteurs au cours du temps, à une échelle spatio-temporelle relativement fine.Dans un second temps, nous construisons les matrices Origine-Destination qui représentent les flux totaux de déplacements au cours du temps, pour différents modes de transports.Ces estimations sont validées par une comparaison avec des données de mobilité externes, avec lesquelles de fortes corrélations et de faibles erreurs sont obtenues.Les modèles proposés sont robustes au bruit et à la faible fréquence des données, bien que la performance des modèles soit fortement dépendante de l'échelle spatiale.Pour atteindre une performance optimale, la calibration des modèles doit également prendre en compte la zone d'étude et le mode de transport. Cette étape est nécessaire pour réduire les biais générés par une densité urbaine hétérogène et les différents comportements utilisateur.Ces travaux sont les premiers à estimer les flux totaux de voyageurs routiers et ferrés dans le temps, à l'échelle intra-régionale.Bien qu'une validation plus approfondie des modèles soit requise pour les renforcer, nos résultats mettent en évidence l'énorme potentiel de la science des données de réseaux mobiles appliquées à la planification urbaine
In the upcoming decades, traffic and travel times are expected to skyrocket, following tremendous population growth in urban territories. The increasing congestion on transport networks threatens cities efficiency at several levels such as citizens well-being, health, economy, tourism and pollution. Thus, local and national authorities are urged to promote urban planning innovation by adopting supportive policies leading to effective and radical measures. Prior to decision making processes, it is crucial to estimate, analyze and understand daily urban mobility. Traditionally, the information on population movements has been gathered through national and local reports such as census and surveys. Still, such materials are constrained by their important cost, inducing extremely low-update frequency and lack of temporal variability. On the meantime, information and communications technologies are providing an unprecedented quantity of up-to-date mobility data, across all categories of population. In particular, most individuals carry their mobile phone everywhere through their daily trips and activities. In this thesis, we estimate urban mobility by mining mobile network data, which are collected in real-time by mobile phone providers at no extra-cost. Processing the raw data is non-trivial as one must deal with temporal sparsity, coarse spatial precision and complex spatial noise. The thesis addresses two problematics through a weakly supervised learning scheme (i.e., using few labeled data) combining several mobility data sources. First, we estimate population densities and number of visitors over time, at fine spatio-temporal resolutions. Second, we derive Origin-Destination matrices representing total travel flows over time, per transport modes. All estimates are exhaustively validated against external mobility data, with high correlations and small errors. Overall, the proposed models are robust to noise and sparse data yet the performance highly depends on the choice of the spatial resolution. In addition, reaching optimal model performance requires extra-calibration specific to the case study region and to the transportation mode. This step is necessary to account for the bias induced by the joined effect of heterogeneous urban density and user behavior. Our work is the first successful attempt to characterize total road and rail passenger flows over time, at the intra-region level.Although additional in-depth validation is required to strengthen this statement, our findings highlight the huge potential of mobile network data mining for urban planning applications
APA, Harvard, Vancouver, ISO, and other styles
45

Li, Hao. "Cooperative perception : Application in the context of outdoor intelligent vehicle systems." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00766986.

Full text
Abstract:
The research theme of this dissertation is the multiple-vehicles cooperative perception (or cooperative perception) applied in the context of intelligent vehicle systems. The general methodology of the presented works in this dissertation is to realize multiple-intelligent vehicles cooperative perception, which aims at providing better vehicle perception result compared with single vehicle perception (or non-cooperative perception). Instead of focusing our research works on the absolute performance of cooperative perception, we focus on the general mechanisms which enable the realization of cooperative localization and cooperative mapping (and moving objects detection), considering that localization and mapping are two underlying tasks for an intelligent vehicle system. We also exploit the possibility to realize certain augmented reality effect with the help of basic cooperative perception functionalities; we name this kind of practice as cooperative augmented reality. Naturally, the contributions of the presented works consist in three aspects: cooperative localization, cooperative local mapping and moving objects detection, and cooperative augmented reality.
APA, Harvard, Vancouver, ISO, and other styles
46

Ahriz, Roula Iness. "Application des techniques d'apprentissage à la géolocalisation par radio fingerprint." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://pastel.archives-ouvertes.fr/pastel-00546952.

Full text
Abstract:
L'objectif de la thèse est d'améliorer la précision de localisation des personnes (ou objets) dans les environnements où le signal GPS est faible, voire inexistant, par exemple à l'intérieur de bâtiments. L'originalité de ce travail est d'utiliser des signaux radio reçus de sources extérieures pour effectuer la localisation à l'intérieur des bâtiments. Durant ce travail, des mesures des puissances reçues ont été effectuées dans diverses conditions. Étant données les difficultés liées aux processus expérimentaux (incertitude et bruit liés aux mesures), ce dernier point a constitué une première partie de ce travail de thèse. Le traitement et l'interprétation des mesures des puissances de signaux radio dans un environnement de propagation instable ont été un véritable défi durant cette étude. En effet, toutes les porteuses du réseau GSM ont été considérées et aucune hypothèse n'a été posée, à priori, sur leurs pertinences. Une seconde partie de la thèse a été justement consacrée à l'estimation de ces pertinences. Le problème de la détermination de la pièce dans laquelle se trouve le mobile a été considéré comme un problème de classification automatique : des méthodes d'apprentissage statistique (supervisé et semi‐supervisé) ont donc été mises en oeuvre. Le choix des méthodes utilisées a été fait sur la base des études menées sur les mesures des puissances. Des performances très satisfaisantes ont été obtenues, dans les pièces de deux bâtiments différents. Ces résultats ont ainsi confirmé l'apport des méthodes d'apprentissage statistique au problème de localisation par fingerprints.
APA, Harvard, Vancouver, ISO, and other styles
47

Nuñez, del Prado Cortez Miguel. "Inference attacks on geolocated data." Thesis, Toulouse, INSA, 2013. http://www.theses.fr/2013ISAT0028/document.

Full text
Abstract:
Au cours des dernières années, nous avons observé le développement de dispositifs connectéset nomades tels que les téléphones mobiles, tablettes ou même les ordinateurs portablespermettant aux gens d’utiliser dans leur quotidien des services géolocalisés qui sont personnalisésd’après leur position. Néanmoins, les services géolocalisés présentent des risques enterme de vie privée qui ne sont pas forcément perçus par les utilisateurs. Dans cette thèse,nous nous intéressons à comprendre les risques en terme de vie privée liés à la disséminationet collection de données de localisation. Dans ce but, les attaques par inférence que nousavons développé sont l’extraction des points d’intérêts, la prédiction de la prochaine localisationainsi que la désanonymisation de traces de mobilité, grâce à un modèle de mobilité quenous avons appelé les chaînes de Markov de mobilité. Ensuite, nous avons établi un classementdes attaques d’inférence dans le contexte de la géolocalisation se basant sur les objectifsde l’adversaire. De plus, nous avons évalué l’impact de certaines mesures d’assainissement àprémunir l’efficacité de certaines attaques par inférence. En fin nous avons élaboré une plateformeappelé GEoPrivacy Enhanced TOolkit (GEPETO) qui permet de tester les attaques parinférences développées
In recent years, we have observed the development of connected and nomad devices suchas smartphones, tablets or even laptops allowing individuals to use location-based services(LBSs), which personalize the service they offer according to the positions of users, on a dailybasis. Nonetheless, LBSs raise serious privacy issues, which are often not perceived by the endusers. In this thesis, we are interested in the understanding of the privacy risks related to thedissemination and collection of location data. To address this issue, we developed inferenceattacks such as the extraction of points of interest (POI) and their semantics, the predictionof the next location as well as the de-anonymization of mobility traces, based on a mobilitymodel that we have coined as mobility Markov chain. Afterwards, we proposed a classificationof inference attacks in the context of location data based on the objectives of the adversary.In addition, we evaluated the effectiveness of some sanitization measures in limiting the efficiencyof inference attacks. Finally, we have developed a generic platform called GEPETO (forGEoPrivacy Enhancing Toolkit) that can be used to test the developed inference attacks
APA, Harvard, Vancouver, ISO, and other styles
48

Féraud, Thomas. "Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697028.

Full text
Abstract:
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
APA, Harvard, Vancouver, ISO, and other styles
49

Irain, Malik. "Plateforme d'analyse de performances des méthodes de localisation des données dans le cloud basées sur l'apprentissage automatique exploitant des délais de messages." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30195.

Full text
Abstract:
L'utilisation du cloud est une nécessité aujourd'hui, les données produites et utilisées par tous les types d'utilisateurs (individus particuliers, entreprises, structures administratives) ayant atteint une masse trop importante pour être stockées autrement. L'utilisation du cloud nécessite la signature, explicite ou non, d'un contrat avec un fournisseur de service de stockage. Ce contrat mentionne les niveaux de qualité de service requis selon différents critères. Parmi ces critères se trouve la localisation des données. Cependant, ce critère n'est pas facilement vérifiable par un utilisateur. C'est pour cela que la recherche dans le domaine de la vérification de localisation de données a suscité plusieurs travaux depuis quelques années, mais les solutions proposées restent encore perfectibles. Le travail proposé dans le cadre de cette thèse consiste à étudier les solutions de vérification de localisation par les clients, c'est-à-dire les solutions estimant la localisation des données et fonctionnant à l'aide de points de repère. L'approche à investiguer peut être résumée comme suit : en exploitant les délais de communication et en utilisant des modèles de temps de traversée du réseau, estimer, avec une certaine erreur de distance, la localisation des données. Pour cela, le travail réalisé est le suivant : • Une revue de l'état de l'art des différentes méthodes permettant aux utilisateurs de connaitre la localisation de leurs données. • La conception d'une notation unifiée pour les méthodes étudiées dans la revue de l'état de l'art, avec une proposition de deux scores pour évaluer et comparer les méthodes. • La mise en place d'une plateforme de collecte de mesures réseau. Grâce à cette plateforme, deux jeux de données ont été récoltés, un au niveau national et l'autre un niveau mondial. Ces deux jeux de données permettent d'évaluer les différentes méthodes présentées dans la revue de l'état de l'art. • La mise en place d'une architecture d'évaluation à partir des deux jeux de données et des scores définis, afin d'établir la qualité des méthodes (taux de succès) et la qualité des résultats (précision du résultat) grâce aux scores proposés
Cloud usage is a necessity today, as data produced and used by all types of users (individuals, companies, administrative structures) has become too large to be stored otherwise. It requires to sign, explicitly or not, a contract with a cloud storage provider. This contract specifies the levels of quality of service required for various criteria. Among these criteria is the location of the data. However, this criterion is not easily verifiable by a user. This is why research in the field of data localization verification has led to several studies in recent years, but the proposed solutions can still be improved. The work proposed in this thesis consists in studying solutions of location verification by a user, i.e. solutions that estimate data location and operate using landmarks. The implemented approach can be summarized as follows: exploiting communication delays and using network time models to estimate, with some distance error, data location. To this end, the work carried out is as follows: • A survey of the state of the art on the different methods used to provide users with location information. • The design of a unified notation for the methods studied in the survey, with a proposal of two scores to assess methods. • Implementation of a network measurements collecting platform. Thanks to this platform, two datasets were collected, at both national level and international level. These two data sets are used to evaluate the different methods presented in the state of the art survey. • Implementation of an evaluation architecture based on the two data sets and the defined scores. This allows us to establish the quality of the methods (success rate) and the quality of the results (accuracy of the result) thanks to the proposed scores
APA, Harvard, Vancouver, ISO, and other styles
50

Hofleitner, Aude. "Développement d'un modèle d'estimation des variables de trafic urbain basé sur l'utilisation des technologies de géolocalisation." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00798239.

Full text
Abstract:
Face à l'augmentation de la mobilité, les politiques de développement durable cherchent à optimiser l'utilisation des infrastructures de transport existantes. En particulier, les systèmes d'information du trafic à large échelle ont le potentiel d'optimiser l'utilisation du réseau de transport. Ils doivent fournir aux usagers une information fiable en temps réel leur permettant d'optimiser leurs choix d'itinéraires. Ils peuvent également servir d'outils d'aide à la décision pour les gestionnaires du réseau. La thèse étudie comment l'émergence des services Internet sur les téléphones portables et la rapide prolifération des systèmes de géolocalisation permet le développement de nouveaux services d'estimation et d'information des conditions de trafic en réseau urbain. L'utilisation des données provenant de véhicules traceurs nécessite le développement de modèles et d'algorithmes spécifiques, afin d'extraire l'information de ces données qui ne sont envoyées, jusqu'à présent, que par une faible proportion des véhicules circulant sur le réseau et avec une fréquence faible. La variabilité des conditions de circulations, due à la présence de feux de signalisation, motive une approche statistique de la dynamique du trafic, tout en intégrant les principes physiques hydrodynamiques (formation et dissolution de files d'attentes horizontales). Ce modèle statistique permet d'intégrer de façon robuste les données bruitées envoyées par les véhicules traceurs, d'estimer les paramètres physiques caractérisant la dynamique du trafic et d'obtenir l'expression paramétrique de la loi de probabilité des temps de parcours entre deux points quelconques du réseau. La thèse s'appuie sur les données et les infrastructures développées par le projet Mobile Millennium à l'Université de Californie, Berkeley pour valider les modèles et algorithmes proposés. Les résultats soulignent l'importance du développement de modèles statistiques et d'algorithmes adaptés aux données disponibles pour développer un système opérationnel d'estimation du trafic à large échelle
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography