Rozprawy doktorskie na temat „Algorithmes de fusion”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Algorithmes de fusion.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Algorithmes de fusion”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Kaci, Souhila. "Connaissances et préférences : représentation et fusion en logique possibiliste". Toulouse 3, 2002. http://www.theses.fr/2002TOU30029.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Zarrouati-Vissière, Nadège. "La réalité augmentée : fusion de vision et navigation". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00961962.

Pełny tekst źródła
Streszczenie:
Cette thèse a pour objet l'étude d'algorithmes pour des applications de réalité visuellement augmentée. Plusieurs besoins existent pour de telles applications, qui sont traités en tenant compte de la contrainte d'indistinguabilité de la profondeur et du mouvement linéaire dans le cas de l'utilisation de systèmes monoculaires. Pour insérer en temps réel de manière réaliste des objets virtuels dans des images acquises dans un environnement arbitraire et inconnu, il est non seulement nécessaire d'avoir une perception 3D de cet environnement à chaque instant, mais également d'y localiser précisément la caméra. Pour le premier besoin, on fait l'hypothèse d'une dynamique de la caméra connue, pour le second on suppose que la profondeur est donnée en entrée: ces deux hypothèses sont réalisables en pratique. Les deux problèmes sont posés dans lecontexte d'un modèle de caméra sphérique, ce qui permet d'obtenir des équations de mouvement invariantes par rotation pour l'intensité lumineuse comme pour la profondeur. L'observabilité théorique de ces problèmes est étudiée à l'aide d'outils de géométrie différentielle sur la sphère unité Riemanienne. Une implémentation pratique est présentée: les résultats expérimentauxmontrent qu'il est possible de localiser une caméra dans un environnement inconnu tout en cartographiant précisément cet environnement.
Style APA, Harvard, Vancouver, ISO itp.
3

Arezki, Yassir. "Algorithmes de références 'robustes' pour la métrologie dimensionnelle des surfaces asphériques et des surfaces complexes en optique". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN058.

Pełny tekst źródła
Streszczenie:
Les formes asphériques et les surfaces complexes sont une classe très avancée d'éléments optiques. Leur application a considérablement augmenté au cours des dernières années dans les systèmes d'imagerie, l'astronomie, la lithographie, etc. La métrologie de ces pièces est très difficile, en raison de la grande gamme dynamique d'information acquise et la traçabilité à l'unité SI mètre. Elle devrait faire usage de la norme infinie; (Méthode de zone minimum ou la méthode Min-Max) pour calculer l'enveloppe entourant les points dans le jeu de données en réduisant au minimum la différence entre l'écart maximum et l'écart minimal entre la surface et l'ensemble de données. Cette méthode a une grande complexité en fonction du nombre de points, enplus, les algorithmes impliqués sont non-déterministes. Bien que cette méthode fonctionne pour des géométries simples (lignes, plans, cercles, cylindres, cônes et sphères), elle est encore un défi majeur lorsqu' utilisée pour des géométries complexes (asphérique et surfaces complexes). Par conséquent, l'objectif de la thèse est le développement des algorithmes d'ajustement Min-Max pour les deux surfaces asphériques et complexes, afin de fournir des algorithmes de référence robustes pour la grande communauté impliquée dans ce domaine. Les algorithmes de référence à développer devraient être évalués et validés sur plusieurs données de référence (Softgauges) qui seront générées par la suite
Aspheres and freeform surfaces are a very challenging class of optical elements. Their application has grown considerably in the last few years in imaging systems, astronomy, lithography, etc. The metrology for aspheres is very challenging, because of the high dynamic range of the acquired information and the traceability to the SI unit meter. Metrology should make use of the infinite norm; (Minimum Zone Method or Min-Max method) to calculate the envelope enclosing the points in the dataset by minimizing the difference between the maximum deviation and the minimum deviation between the surface and the dataset. This method grows in complexity as the number of points in the dataset increases, and the involved algorithms are non-deterministic. Despite the fact that this method works for simple geometries (lines, planes, circles, cylinders, cones and spheres) it is still a major challenge when used on complex geometries (asphere and freeform surfaces). Therefore, the main objective is to address this key challenge about the development of Min-Max fitting algorithms for both aspherical and freeform surfaces as well as least squares fitting algorithms, in order to provide robust reference algorithms for the large community involved in this domain. The reference algorithms to be developed should be evaluated and validated on several reference data (softgauges) that will be generated using reference data generators
Style APA, Harvard, Vancouver, ISO itp.
4

Laporterie, Florence. "Représentations hiérarchiques d'images avec des pyramides morphologiques : application à l'analyse et à la fusion spatio-temporelle de données en observation de la Terre". Toulouse, ENSAE, 2002. http://www.theses.fr/2002ESAE0001.

Pełny tekst źródła
Streszczenie:
Le mémoire présente le développement d'une représentation multi-échelle d'images par une famille de pyramides morphologiques et ses applications à l'analyse et à la fusion d'images en télédétection. La représentation hiérarchique proposée est basée sur une approche pyramidale utilisant les filtres non linéaires de la morphologie mathématique. La partie II propose d'abord un état de l'art des transformations pyramidales puis décrit le principe de la pyramide morphologique. Ses propriétés sont étudiées au travers de différents paramétrages et des familles qui en découlent. La pyramide morphologique permet d'une part, de séparer à chaque niveau de résolution les éléments de détails par leur taille et leur réflectance par rapport à l'environnement, et, d'autre part, de représenter les images aux niveaux de perception inférieurs. La partie III du mémoire est consacrée aux applications des pyramides morphologiques à l'analyse des surfaces observées. La décomposition des éléments imbriqués dans les scènes en signaux séparables à différentes résolutions démontre la capacité de caractérisation multi-échelle. On montre également comment des traitements de reconstruction appliqués aux détails contribuent à cette analyse. Différents exemples de paysages analysés illustrent la méthodologie développée. La partie IV consiste à fusionner des données de résolutions différentes, notamment celles issues de capteurs à haute résolution et à grand champ de vue. L'approche de fusion par pyramide morphologique créé ainsi des données de synthèse à haute résolution spatiale et à haute fréquence temporelle qui permettent une approche nouvelle du suivi des surfaces terrestres. Les résultats de ce principe de fusion sont présentés en fonction de différents jeux de dates d'acquisition des images. La conclusion souligne trois perspectives très prometteuses. Premièrement, la pyramide morphologique peut être utilisée comme un navigateur exploitant les différents niveaux de résolution spatiale permettant l'accès à une information plus ou moins détaillée. Ensuite, la pyramide morphologique ouvre des opportunités intéressantes au recalage d'images de résolutions différentes. Finalement, la pyramide morphologique est un cadre intéressant pour la compression de données par le choix des différents paramètres autorisés.
Style APA, Harvard, Vancouver, ISO itp.
5

Poinsot, Audrey. "Traitements pour la reconnaissance biométrique multimodale : algorithmes et architectures". Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOS010.

Pełny tekst źródła
Streszczenie:
Combiner les sources d'information pour créer un système de reconnaissance biométrique multimodal permet d'atténuer les limitations de chaque caractéristique utilisée, et donne l'opportunité d'améliorer significativement les performances. Le travail présenté dans ce manuscrit a été réalisé dans le but de proposer un système de reconnaissance performant, qui réponde à des contraintes d'utilisation grand-public, et qui puisse être implanté sur un système matériel de faible coût. La solution choisie explore les possibilités apportées par la multimodalité, et en particulier par la fusion du visage et de la paume. La chaîne algorithmique propose un traitement basé sur les filtres de Gabor, ainsi qu’une fusion des scores. Une base multimodale réelle de 130 sujets acquise sans contact a été conçue et réalisée pour tester les algorithmes. De très bonnes performances ont été obtenues, et ont été confirmées sur une base virtuelle constituée de deux bases publiques (les bases AR et PolyU). L'étude approfondie de l'architecture des DSP, et les différentes implémentations qui ont été réalisées sur un composant de type TMS320c64x, démontrent qu'il est possible d'implanter le système sur un unique DSP avec des temps de traitement très courts. De plus, un travail de développement conjoint d'algorithmes et d'architectures pour l'implantation FPGA a démontré qu'il était possible de réduire significativement ces temps de traitement
Including multiple sources of information in personal identity recognition reduces the limitations of each used characteristic and gives the opportunity to greatly improve performance. This thesis presents the design work done in order to build an efficient generalpublic recognition system, which can be implemented on a low-cost hardware platform. The chosen solution explores the possibilities offered by multimodality and in particular by the fusion of face and palmprint. The algorithmic chain consists in a processing based on Gabor filters and score fusion. A real database of 130 subjects has been designed and built for the study. High performance has been obtained and confirmed on a virtual database, which consists of two common public biometric databases (AR and PolyU). Thanks to a comprehensive study on the architecture of the DSP components and some implementations carried out on a DSP belonging to the TMS320c64x family, it has been proved that it is possible to implement the system on a single DSP with short processing times. Moreover, an algorithms and architectures development work for FPGA implementation has demonstrated that these times can be significantly reduced
Style APA, Harvard, Vancouver, ISO itp.
6

Awad, Mohamad M. "Mise en oeuvre d'un système coopératif adaptatif de segmentation d'images multicomposantes". Rennes 1, 2008. http://www.theses.fr/2008REN1S031.

Pełny tekst źródła
Streszczenie:
The exploitation of images acquired by various sensors for a difficult application such as the Remote Sensing presents a wide investigation field and poses many problems for all levels of the image processing chain. Also, the development of adaptive and optimized segmentation and fusion methods proves out to be indispensable. Image segmentation and fusion are the key phases of all systems of recognition or interpretation by vision: the rate of identification or the quality of interpretation depends indeed closely on the sharpness of the analysis and the relevance of results of these phases. Although the topic was studied extensively in the literature, it does not exist a universal and efficient method of classification and fusion allowing an accurate identification of classes of a real image when this one is composed at a time of uniform regions (weak local variation of luminance) and of textured nature. In addition, the majority of these methods require a priori knowledge which is difficult to obtain in practice. Furthermore, they assume the existence of models which can estimate its parameters, and fit to given data. However, such a parametric approach is not robust and its performance is severely affected by the correctness of the utilized parametric model. In the framework of this thesis, a cooperative adaptive mutli-component image segmentation system using the minimum a priori knowledge is developed. The segmentation methods used in this system are nonparametric. The system works by analyzing the image in several hierarchical levels of complexity while integrating several methods in cooperation mechanisms. Three cooperative approaches are created between different methods such as Hybrid Genetic Algorithm, Fuzzy C-Means, Self-Organizing Map and Non-Uniform Rational B-Spline. In order to finalize image segmentation results, a fusion process of the results of the segmentation of the above three methods is used. The assessment of the system is achieved through several experiments by using different satellite and aerial images. The obtained results show the high efficiency and accuracy of developed system
Dans le domaine de la télédétection, l'exploitation des images acquises par divers capteurs présente un large champ d'investigation et pose de nombreux problèmes à tous les niveaux dans la chaîne de traitement des images. Aussi, le développement d’approches de segmentation et de fusion optimisées et adaptatives, s’avère indispensable. La segmentation et la fusion sont deux étapes essentielles dans tout système de reconnaissance ou d’interprétation par vision: Le taux d'identification ou la qualité de l'interprétation dépend en effet, étroitement de la qualité de l'analyse et la pertinence des résultats de ces phases. Bien que le sujet ait été étudié en détail dans la littérature, il n'existe pas de méthodes universelles et efficaces de segmentation et de fusion qui permettent une identification précise des classes d'une image réelle lorsque celle-ci est composée à la fois de régions uniformes (faible variation locale de luminance) et texturées. En outre, la majorité de ces méthodes nécessitent des connaissances a priori qui sont en pratique difficilement accessibles. En outre, certaines d’entre elles supposent l'existence de modèles dont les paramètres doivent être estimés. Toutefois, une telle approche paramétrique est non robuste et ses performances sont sévèrement altérées par l’ajustement de l'utilisation de modèles paramétriques. Dans le cadre de cette thèse, un système coopératif et adaptatif de segmentation des images multicomposantes est développé. Ce système est non-paramétrique et utilise le minimum de connaissances a priori. Il permet l’analyse de l'image à plusieurs niveaux hiérarchiques en fonction de la complexité tout en intégrant plusieurs méthodes dans les mécanismes de coopération. Trois approches sont intégrées dans le processus coopératif: L’Algorithme Génétique Hybride, l'Algorithme des C-Moyennes Floues, le Réseau de Kohonen (SOM) et la modélisation géométrique par ’’Non-Uniform Rational B-Spline’’. Pour fusionner les différents résultats issus des méthodes coopératives, l’algorithme génétique est appliqué. Le système est évalué sur des images multicomposantes satellitaires et aériennes. Les différents résultats obtenus montrent la grande efficacité et la précision de ce système
Style APA, Harvard, Vancouver, ISO itp.
7

Khiari, Nefissa. "Biométrie multimodale basée sur l’iris et le visage". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE014/document.

Pełny tekst źródła
Streszczenie:
Cette thèse vise à apporter une contribution dans le domaine de la biométrie par l’iris (l’une des modalités les plus précises et difficiles à pirater) et le visage (l’une des modalités les moins intrusives et les moins coûteuses). A travers ce travail, nous abordons plusieurs aspects importants de la biométrie mono et multimodale. Nous commençons par dresser un état de l’art sur la biométrie monomodale par l’iris et par le visage et sur la multimodalité iris/visage, avant de proposer plusieurs approches personnelles de reconnaissance d’individus pour chacune des deux modalités. Nous abordons, en particulier, la reconnaissance faciale par des approches classiques reposant sur des combinaisons d’algorithmes et des approches bio-inspirées émulant le mécanisme de la vision humaine. Nous démontrons l’intérêt des approches bio-inspirées par rapport aux approches classiques à travers deux méthodes. La première exploite les résultats issus de travaux neuroscientifiques indiquant l’importance des régions et des échelles de décomposition utiles à l’identification d’un visage. La deuxième consiste à appliquer une méthode de codage par ordre de classement dans la phase de prétraitement pour renforcer le contenu informatif des images de visage. Nous retenons la meilleure approche de chacune des modalités de l’iris et du visage pour concevoir deux méthodes biométriques multimodales. A travers ces méthodes, nous évaluons différentes stratégies classiques de fusion multimodale au niveau des scores. Nous proposons ensuite une nouvelle règle de fusion de scores basée sur un facteur de qualité dépendant du taux d’occultation des iris. Puis, nous mettons en avant l’intérêt de l’aspect double échantillons de l’iris dans une approche multimodale.L’ensemble des méthodes proposées sont évaluées sur la base multimodale réelle IV² capturée dans des environnements variables voire dégradés et en suivant un protocole bien précis fourni dans le cadre de la campagne d’évaluation IV². Grâce à une étude comparative avec les algorithmes participants à la campagne IV², nous prouvons la compétitivité de nos algorithmes qui arrivent dans plusieurs cas à se positionner en tête de liste
This thesis aims to make a contribution in the field of biometrics based on iris (one of the most accurate and hard to hack biometrics) in conjunction with face (one of the cheapest and less intrusive biometrics).Through this work, we discuss several important aspects of unimodal and multimodal biometrics. After an overview on unimodal and multimodal biometrics based on iris and face, we propose several personal approaches of biometric authentication using each single trait. Particularly, we address facial recognition first with conventional approaches based on combined algorithms, then with bio-inspired approaches emulating the human vision mechanism. We demonstrate the interest of bio-inspired approaches over conventional approaches through two proposed methods. The first one exploits the results of neuroscientific work indicating the relevant regions and scales in a face identification task. The second consists in applying a rank order coding method at the preprocessing step so as to enhance the information content of face images.We keep the best unimodal approach of iris and face recognition to design two multimodal biometric methods. Through these methods, we evaluate different classic strategies of multimodal score-level fusion. Afterwards, we propose a new score-level fusion rule based on a quality metric according to irises occultation rates. Then, we point out the interest of the double-sample iris aspect in a multimodal approach.All the proposed methods are evaluated on the real multimodal IV² database captured under variable to degraded environments, and following a specific protocol provided as part of the IV² evaluation campaign. After a comparative study with the participant algorithms in the IV² campaign, we prove the competitiveness of our algorithms witch outperform most of the participant ones in the IV² campaign in many experiments
Style APA, Harvard, Vancouver, ISO itp.
8

Salmeron-Quiroz, Bernardino Benito. "Fusion de données multicapteurs pour la capture de mouvement". Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00148577.

Pełny tekst źródła
Streszczenie:
Cette thèse est située dans le contexte des applications de la capture de mouvement humain dont le but est d'inférer la position du corps humain. Les systèmes de capture de mouvement sont des outils "software" et hardware " qui permettent le traitement en temps réel ou en temps différé de données permettant de retrouver le mouvement (position, orientation) d'un objet ou d'un humain dans l'espace. Différents systèmes de capture de mouvement existent sur le marché. Ils diffèrent essentiellement par leur technologie mais nécessitent une adaptation de l'environnement et parfois l'équipement de la personne. Dans cette thèse, on présente un nouveau système de capture de mouvement permettant d'obtenir l'orientation 3D ainsi que l'accélération linéaire d'un mobile à partir des mesures fournies par une minicentrale, développée au sein du CEA-LETI. Cette minicentrale utilise une configuration minimale, à savoir un triaxe magnétomètre et un triaxe accéléromètre. Dans ce travail, on propose différents algorithmes d'estimation de l'attitude et des accélérations recherchées. La rotation est modélisée à l'aide d'un quaternion unitaire. Dans un premier temps, on a considéré le cas d'une seule centrale d'attitude. On s'est intéressé au problème à 6DDL, dont le but est d'estimer l'orientation d'un corps rigide et ses trois accélérations linéaires à partir des mesures fournies par la minicentrale et d'un algorithme d'optimisation. Dans un second temps, on s'est intéressé au cas de la capture de mouvement de chaînes articulées (bras et jambe). A partir d'hypothèses ad-hoc sur les accélérations au niveau des liaisons pivot, on reconstruit le mouvement de la chaîne articulé (orientation) du segment ainsi que l'accélération en des points particuliers du segment. Ces différentes approches ont été validées avec des données simulés et réelles.
Style APA, Harvard, Vancouver, ISO itp.
9

Salmeron-Quiroz, Bernardino Benito. "Fusion de données multicapteurs pour la capture de mouvement". Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10062.

Pełny tekst źródła
Streszczenie:
Cette thèse est située dans le contexte des applications de la capture de mouvement humain dont le but est d'inférer la position du corps humain. Les systèmes de capture de mouvement sont des outils "software" et hardware " qui permettent le traitement en temps réel ou en temps différé de données permettant de retrouver le mouvement (position, orientation) d'un objet ou d'un humain dans l'espace. Différents systèmes de capture de mouvement existent sur le marché. Ils diffèrent essentiellement par leur technologie mais nécessitent une adaptation de l'environnement et parfois l'équipement de la personne. Dans cette thèse, on présente un nouveau système de capture de mouvement permettant d'obtenir l'orientation 3D ainsi que l'accélération linéaire d'un mobile à partir des mesures fournies par une minicentrale, développée au sein du CEA-LETI. Cette minicentrale utilise une configuration minimale, à savoir un triaxe magnétomètre et un triaxe accéléromètre. Dans ce travail, on propose différents algorithmes d'estimation de l'attitude et des accélérations recherchées. La rotation est modélisée à l'aide d'un quaternion unitaire. Dans un premier temps, on a considéré le cas d'une seule centrale d'attitude. On s'est intéressé au problème à 6DDL, dont le but est d'estimer l'orientation d'un corps rigide et ses trois accélérations linéaires à partir des mesures fournies par la minicentrale et d'un algorithme d'optimisation. Dans un second temps, on s'est intéressé au cas de la capture de mouvement de chaînes articulées (bras et jambe). A partir d'hypothèses ad-hoc sur les accélérations au niveau des liaisons pivot, on reconstruit le mouvement de la chaîne articulé (orientation) du segment ainsi que l'accélération en des points particuliers du segment. Ces différentes approches ont été validées avec des données simulés et réelles
This thesis deals with motion capture (MoCap) which goal is to acquire the attitude of human's body. In our case, the arm and the leg are considered. The MoCap trackers are made of "software" and "hardware" parts which allow acquisition of the movement of an object or a human in space in real or differed time. Many MoCaps systems still exist, but they require an adaptation of the environment. In this thesis, a low cost, low weight attitude central unit (UCN namely a triaxes magnetometer and a triaxes accelerometer), is used. This attitude central unit has been developed within the CEA-LETI. In this work, we propose different algorithms to estimate the attitude and the linear accelerations of a rigid body. For the rotation parametrization, the unit quaternion is used. Firstly, the estimation of the attitude and the accelerations (6DDL case) from the measurements provided by ACU is done via an optimization technique. The motion capture of articulated chains (arm and leg) is also studied with ad-hoc assumptions on the accelerations in the pivot connections, the orientation of the segments as well as the accelerations in particular points of the segments can be estimated. The different approaches proposed in this work have been evaluated with simulated data and real data
Style APA, Harvard, Vancouver, ISO itp.
10

Bader, Kaci. "Tolérance aux fautes pour la perception multi-capteurs : application à la localisation d'un véhicule intelligent". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2161/document.

Pełny tekst źródła
Streszczenie:
La perception est une entrée fondamentale des systèmes robotiques, en particulier pour la localisation, la navigation et l'interaction avec l'environnement. Or les données perçues par les systèmes robotiques sont souvent complexes et sujettes à des imprécisions importantes. Pour remédier à ces problèmes, l'approche multi-capteurs utilise soit plusieurs capteurs de même type pour exploiter leur redondance, soit des capteurs de types différents pour exploiter leur complémentarité afin de réduire les imprécisions et les incertitudes sur les capteurs. La validation de cette approche de fusion de données pose deux problèmes majeurs.Tout d'abord, le comportement des algorithmes de fusion est difficile à prédire,ce qui les rend difficilement vérifiables par des approches formelles. De plus, l'environnement ouvert des systèmes robotiques engendre un contexte d'exécution très large, ce qui rend les tests difficiles et coûteux. L'objet de ces travaux de thèse est de proposer une alternative à la validation en mettant en place des mécanismes de tolérance aux fautes : puisqu'il est difficile d'éliminer toutes les fautes du système de perception, on va chercher à limiter leurs impacts sur son fonctionnement. Nous avons étudié la tolérance aux fautes intrinsèquement permise par la fusion de données en analysant formellement les algorithmes de fusion de données, et nous avons proposé des mécanismes de détection et de rétablissement adaptés à la perception multi-capteurs. Nous avons ensuite implémenté les mécanismes proposés pour une application de localisation de véhicules en utilisant la fusion de données par filtrage de Kalman. Nous avons finalement évalué les mécanismes proposés en utilisant le rejeu de données réelles et la technique d'injection de fautes, et démontré leur efficacité face à des fautes matérielles et logicielles
Perception is a fundamental input for robotic systems, particularly for positioning, navigation and interaction with the environment. But the data perceived by these systems are often complex and subject to significant imprecision. To overcome these problems, the multi-sensor approach uses either multiple sensors of the same type to exploit their redundancy or sensors of different types for exploiting their complementarity to reduce the sensors inaccuracies and uncertainties. The validation of the data fusion approach raises two major problems. First, the behavior of fusion algorithms is difficult to predict, which makes them difficult to verify by formal approaches. In addition, the open environment of robotic systems generates a very large execution context, which makes the tests difficult and costly. The purpose of this work is to propose an alternative to validation by developing fault tolerance mechanisms : since it is difficult to eliminate all the errors of the perceptual system, We will try to limit impact in their operation. We studied the inherently fault tolerance allowed by data fusion by formally analyzing the data fusion algorithms, and we have proposed detection and recovery mechanisms suitable for multi-sensor perception, we implemented the proposed mechanisms on vehicle localization application using Kalman filltering data fusion. We evaluated the proposed mechanims using the real data replay and fault injection technique
Style APA, Harvard, Vancouver, ISO itp.
11

Salaün, Erwan. "Algorithmes de filtrage et systèmes avioniques pour véhicules aériens autonomes". Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00554437.

Pełny tekst źródła
Streszczenie:
Le travail présenté dans ce mémoire concerne le développement théorique et la validation expérimentale d'algorithmes de fusion de données originaux pour mini-drones, dépassant les limitations des estimateurs communément utilisés (e.g. le Filtre de Kalman Etendu ou les filtres particulaires) et pouvant être implémentés aisément et efficacement dans une avionique bas-coûts. Nous proposons tout d'abord des observateurs invariants "génériques'', préservant les symétries naturelles du système physique. Ces observateurs fusionnent les mesures de capteurs bon marché usuels (tels que les capteurs inertiels, magnétomètres, GPS ou baromètres) afin d'estimer avec précision l'état de l'appareil (angles d'attitude et de cap, vitesse et position) sans modèle dynamique de l'engin. Ils possèdent un large domaine de convergence; ils sont également faciles à régler et très économiques en temps de calcul. Puis nous développons des observateurs "spécifiques'', adaptés au type de véhicule aérien considéré, en l'occurence un mini-quadrotor. Basés sur un modèle physique tenant compte de la traînée de rotor, les observateurs présentés estiment la vitesse du quadrotor à partir de mesures uniquement inertielles, menant à un contrôle en vitesse de l'appareil. Cette approche est validée par des vols stabilisés autonomes. Enfin, nous présentons en détail l'intégration du système avionique bas-coûts utilisé, composé de capteurs "bruts'' et d'un microcontrôleur sur lequel sont implémentés les observateurs précédents. Nous validons ces algorithmes en comparant leurs estimations avec celles fournies par un produit commercial coûteux, mettant ainsi en évidence leur excellent rapport "qualité/prix''.
Style APA, Harvard, Vancouver, ISO itp.
12

Lian, Chunfeng. "Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer". Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2333/document.

Pełny tekst źródła
Streszczenie:
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art
Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones
Style APA, Harvard, Vancouver, ISO itp.
13

Schrottenloher, André. "Quantum Algorithms for Cryptanalysis and Quantum-safe Symmetric Cryptography". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS271.

Pełny tekst źródła
Streszczenie:
La cryptographie moderne est fondée sur la notion de sécurité computationnelle. Les niveaux de sécurité attendus des cryptosystèmes sont exprimés en nombre d'opérations ; une attaque est un algorithme d'une complexité inférieure à la borne attendue. Mais ces niveaux de sécurité doivent aujourd'hui prendre en compte une nouvelle notion d'algorithme : le paradigme du calcul quantique. Dans le même temps,la délégation grandissante du chiffrement à des puces RFID, objets connectés ou matériels embarqués pose de nouvelles contraintes de coût.Dans cette thèse, nous étudions la sécurité des cryptosystèmes à clé secrète face à un adversaire quantique.Nous introduisons tout d'abord de nouveaux algorithmes quantiques pour les problèmes génériques de k-listes (k-XOR ou k-SUM), construits en composant des procédures de recherche exhaustive.Nous présentons ensuite des résultats de cryptanalyse dédiée, en commençant par un nouvel outil de cryptanalyse quantique, l'algorithme de Simon hors-ligne. Nous décrivons de nouvelles attaques contre les algorithmes Spook et Gimli et nous effectuons la première étude de sécurité quantique du chiffrement AES. Dans un troisième temps, nous spécifions Saturnin, une famille de cryptosystèmes à bas coût orientés vers la sécurité post-quantique. La structure de Saturnin est proche de celle de l'AES et sa sécurité en tire largement parti
Modern cryptography relies on the notion of computational security. The level of security given by a cryptosystem is expressed as an amount of computational resources required to break it. The goal of cryptanalysis is to find attacks, that is, algorithms with lower complexities than the conjectural bounds.With the advent of quantum computing devices, these levels of security have to be updated to take a whole new notion of algorithms into account. At the same time, cryptography is becoming widely used in small devices (smart cards, sensors), with new cost constraints.In this thesis, we study the security of secret-key cryptosystems against quantum adversaries.We first build new quantum algorithms for k-list (k-XOR or k-SUM) problems, by composing exhaustive search procedures. Next, we present dedicated cryptanalysis results, starting with a new quantum cryptanalysis tool, the offline Simon's algorithm. We describe new attacks against the lightweight algorithms Spook and Gimli and we perform the first quantum security analysis of the standard cipher AES.Finally, we specify Saturnin, a family of lightweight cryptosystems oriented towards post-quantum security. Thanks to a very similar structure, its security relies largely on the analysis of AES
Style APA, Harvard, Vancouver, ISO itp.
14

Reche, Jérôme. "Nouvelle méthodologie hybride pour la mesure de rugosités sub-nanométriques". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT050.

Pełny tekst źródła
Streszczenie:
La détermination de la rugosité sub-nanométrique sur les flancs des motifs, dont les dimensions critiques atteignent une taille inférieure à 10nm, devient une étape primordiale. Mais à ce jour aucune technique de métrologie n'est suffisamment robuste pour garantir un résultat juste et précis. Une voie actuellement en cours d'exploration pour la mesure dimensionnelle consiste à hybrider différentes techniques de métrologie. Pour ce faire, des algorithmes de fusion de données sont développés afin de traiter les informations issues de multiples équipements de métrologie. Le but étant donc d’utiliser ce même type de méthode pour la mesure de rugosité de ligne. Ces travaux de thèse explicitent tout d’abord les progrès de méthodologie de mesure de rugosité de ligne au travers de la décomposition fréquentielle et des modèles associés. Les différentes techniques utilisées pour la mesure de rugosité de lignes sont présentées avec une nouveauté importante concernant le développement et l’utilisation de la technique SAXS pour ce type de mesure. Cette technique possède un potentiel élevé pour la détermination de motifs sub nanométriques. Des étalons de rugosités de ligne sont fabriqués, sur la base de l’état de l’art comportant des rugosités périodiques, mais aussi, des rugosités plus complexes déterminées par un modèle statistique utilisé normalement pour la mesure. Ces travaux se focalisent finalement sur les méthodes d’hybridation et plus particulièrement sur l’utilisation de réseaux de neurones. Ainsi, la mise en place d’un réseau de neurones est détaillée au travers de la multitude de paramètres qu’il comporte. Le choix d’un apprentissage du réseau de neurones sur simulation mène à la nécessité de savoir générer les différentes métrologies en présence
Roughness at Sub-nanometric scale determination becomes a critical issue, especially for patterns with critical dimensions below 10nm. Currently, there is no metrology technique able to provide a result with high precision and accuracy. A way, based on hybrid metrology, is currently explored and dedicated to dimensional measurements. This hybrid metrology uses data fusion algorithms in order to address data coming from different tools. This thesis presents some improvements on line roughness analysis thanks to frequency decomposition and associated model. The current techniques used for roughness determination are explained and a new one SAXS (Small Angle X-rays Scattering) is used to push again limits of extraction of roughness. This technique has a high potential to determine sub nanometrics patterns. Moreover, the design and manufacturing of reference line roughness samples is made, following the state of art with periodic roughness, but also more complex roughness determined by a statistical model usually used for measurement. Finally, this work focus on hybridization methods and more especially on neural network utilization. Thus, the establishment of a neural network is detailed through the multitude of parameters which must be set. In addition, training of the neural network on simulation leads to the capability to generate different metrology
Style APA, Harvard, Vancouver, ISO itp.
15

Picot, Antoine. "Détection d'hypovigilance chez le conducteur par fusion d'informations physiologiques et vidéo". Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0087.

Pełny tekst źródła
Streszczenie:
L'hypovigilance correspond à la transition entre la veille et le sommeil durant laquelle l'organisme voit ses facultés d'observation et d'analyse fortement réduites. Elle est responsable de nombreux accidents sur la route. Le but de cette thèse est de proposer un système de détection de cette phase accidentogène à partir de l'analyse conjointe de l'activité cérébrale (électroencéphalogramme ou EEG) et d'une vidéo du conducteur. Dans un premier temps, une méthode non-supervisée de détection d'hypovigilance fonctionnant à l'aide d'un unique canal EEG a été proposée. Cette méthode, qui met en oeuvre différentes techniques de traitement du signal et de diagnostic, obtient de bonnes performances sur un ensemble de conducteurs, sans qu'il soit nécessaire de régler de paramètres. Dans un deuxième temps, nous nous sommes intéressés à la caractérisation des signes visuels de l'hypovigilance par une analyse vidéo des clignements. Une comparaison entre l'approche vidéo développée et l'approche traditionnelle par électro-oculogramme (EOG) a permis d'étudier dans quelle mesure la vidéo peut remplacer l'EOG pour la caractérisation des clignements. Elle a également permis de souligner la nécessité d'utiliser d'une caméra rapide (pouvant aller jusqu'à 200fps) pour caractériser les clignements. Un algorithme de détection d'hypovigilance à partir de la caractérisation vidéo des clignements a ainsi été développé. Pour finir, un algorithme de détection d'hypovigilance fusionnant, à l'aide de logique floue, les informations obtenues par les approches physiologique et vidéo est présenté. Toutes ces méthodes ont été testées et validées sur une base de données conséquente de conduite en état d'hypovigilance, la base de données ayant été expertisée par un spécialiste
Drowsiness is the transition between the awake state and sleep where one's abilities to observe and analyse are strongly reduced. So, drowsiness is responsible for a huge number of road accidents. A drowsiness detection system is presented in this PhD. This system uses both driver's brain activity (through electroencephalogram or EEG) and driver's video analysis to detect drowsiness. A non-supervised method using a single EEG channel is first proposed. Several techniques of diagnostic and signal processing are used in this method. The method obtains good results on a large number of different drivers without tuning any parameters. Drowsiness visual indicatiors have also been studied thanks to a video analysis. The proposed video analysis has been compared to the traditional electro-oculogram (EOG) approach to study the relevance of the video analysis. This comparison highlights the need of a high frame rate camera (which frame rate can reach 200fps) for blinks characterisation. This study leads to drowsiness detection system based on blinks video characterisation. Both EEG and video methods are at last been merged using fuzzy logic to obtain a 2-levels drowsiness detection system. All these methods have been tested and validated on a consistent database of twenty different drivers which was evaluated by a specialist doctor
Style APA, Harvard, Vancouver, ISO itp.
16

Picot, Antoine. "Détection d'hypovigilance chez le conducteur par fusion d'informations physiologiques et vidéo". Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00440959.

Pełny tekst źródła
Streszczenie:
L'hypovigilance correspond à la transition entre la veille et le sommeil durant laquelle l'organisme voit ses facultés d'observation et d'analyse fortement réduites. Elle est responsable de nombreux accidents sur la route. Le but de cette thèse est de proposer un système de détection de cette phase accidentogène à partir de l'analyse conjointe de l'activité cérébrale (électroencéphalogramme ou EEG) et d'une vidéo du conducteur. Dans un premier temps, une méthode non-supervisée de détection d'hypovigilance fonctionnant à l'aide d'un unique canal EEG a été proposée. Cette méthode, qui met en oeuvre différentes techniques de traitement du signal et de diagnostic, obtient de bonnes performances sur un ensemble de conducteurs, sans qu'il soit nécessaire de régler de paramètres. Dans un deuxième temps, nous nous sommes intéressés à la caractérisation des signes visuels de l'hypovigilance par une analyse vidéo des clignements. Une comparaison entre l'approche vidéo développée et l'approche traditionnelle par électro-oculogramme (EOG) a permis d'étudier dans quelle mesure la vidéo peut remplacer l'EOG pour la caractérisation des clignements. Elle a également permis de souligner la nécessité d'utiliser d'une caméra rapide (pouvant aller jusqu'à 200fps) pour caractériser les clignements. Un algorithme de détection d'hypovigilance à partir de la caractérisation vidéo des clignements a ainsi été développé. Pour finir, un algorithme de détection d'hypovigilance fusionnant, à l'aide de logique floue, les informations obtenues par les approches physiologique et vidéo est présenté. Toutes ces méthodes ont été testées et validées sur une base de données conséquente de conduite en état d'hypovigilance, la base de données ayant été expertisée par un spécialiste.
Style APA, Harvard, Vancouver, ISO itp.
17

Haj, Chhadé Hiba. "Data fusion and collaborative state estimation in wireless sensor networks". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2207/document.

Pełny tekst źródła
Streszczenie:
L'objectif de la thèse est de développer des algorithmes de fusion de données recueillies à l’aide d'un réseau de capteurs sans fil afin de localiser plusieurs sources émettant un agent chimique ou biologique dans l'air. Ces capteurs détectent la concentration de la substance émise, transportée par advection et diffusion, au niveau de leurs positions et de communiquer cette information à un centre de traitement. L’information recueillie de façon collaborative est d'abord utilisée pour localiser les capteurs déployés au hasard et ensuite pour localiser les sources. Les applications comprennent, entre autres, la surveillance environnementale et la surveillance de sites sensibles ainsi que des applications de sécurité dans le cas d'une libération accidentelle ou intentionnelle d'un agent toxique. Toutefois, l'application considérée dans la thèse est celle de la détection et la localisation de mines terrestres. Dans cette approche, les mines sont considérées comme des sources émettrices de produits chimiques explosifs.La thèse comprend une contribution théorique où nous étendons l'algorithme de propagation de la croyance, un algorithme de fusion de données bien connu et largement utilisé pour l'estimation collaborative d'état dans les réseaux de capteurs, au cadre des méthodes à erreurs bornées. Le nouvel algorithme est testé sur le problème de l'auto-localisation dans les réseaux de capteurs statiques ainsi que l'application de suivi d'un objet mobile en utilisant un réseau de capteurs de distance. Autres contributions comprennent l'utilisation d'une approche probabiliste bayésienne avec des techniques d'analyse de données pour localiser un nombre inconnu de sources émettrices de vapeur
The aim of the thesis is to develop fusion algorithms for data collected from a wireless sensor network in order to locate multiple sources emitting some chemical or biological agent in the air. These sensors detect the concentration of the emitted substance, transported by advection and diffusion, at their positions and communicate this information to a treatment center. The information collected in a collaborative manner is used first to locate the randomly deployed sensors and second to locate the sources. Applications include, amongst others, environmental monitoring and surveillance of sensitive sites as well as security applications in the case of an accidental or intentional release of a toxic agent. However, the application we consider in the thesis is that of landmine detection and localization. In this approach, the land mines are considered as sources emitting explosive chemicals. The thesis includes a theoretical contribution where we extend the Belief Propagation algorithm, a well-known data fusion algorithm that is widely used for collaborative state estimation in sensor networks, to the bounded error framework. The novel algorithm is tested on the self-localization problem in static sensor networks as well as the application of tracking a mobile object using a network of range sensors. Other contributions include the use of a Bayesian probabilistic approach along with data analysis techniques to locate an unknown number of vapor emitting sources
Style APA, Harvard, Vancouver, ISO itp.
18

Lassoued, Khaoula. "Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Pełny tekst źródła
Streszczenie:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
Style APA, Harvard, Vancouver, ISO itp.
19

Lherbier, Régis. "Étude d'une méthode de coopération entre capteurs pour la localisation dynamique d'un robot mobile". Compiègne, 1994. http://www.theses.fr/1994COMPD763.

Pełny tekst źródła
Streszczenie:
Dans le cadre de la fusion multi sensorielle, afin d'accélérer la vitesse de traitement des informations issues des différents capteurs du robot, nous combinons les données visuelles avec les données de profondeur (télémètre infrarouge) pour retrouver le mouvement du robot qui se déplace dans un environnement inconnu contenant un certain nombre d'objets rigides et mobiles a priori. Cette méthode a pour point de départ des travaux sur l'estimation itérative du mouvement à partir de la vision 3D et des capteurs ultrasons sans toutefois tenir compte de l'aspect temporel ainsi que des travaux sur la reconstruction 3D trinoculaire. L'originalité de ce travail est de n'utiliser la vision que de temps en temps afin de créer une carte locale de l'environnement. Cette carte est formée de surfaces 3D. Le mouvement est retrouvé de manière itérative (filtre de Kalman étendu) à partir de très peu de données de profondeur. La direction des tirs télémétriques est obtenue en combinant l'estimation courante du mouvement et la prédiction sur la position des plans. Un recalage est nécessaire, en utilisant à nouveau la vision, au bout d'un certain déplacement. La gestion de la fréquence de recalage est faite à partir de deux méthodes proposées : l'une basée sur le calcul d'une erreur de position à chaque instant de recalage et l'autre basée sur l'observation des paramètres d'une surface de référence à chaque instant d'estimation. Les tests de cet algorithme ont été effectués sur des données de synthèse (nous avons réalisé un logiciel permettant de simuler les mouvements du robot dans un environnement polyédrique et d'obtenir des informations synthétiques des différents capteurs). Malheureusement les tests en environnement réel n'ont pu être inclus dans le mémoire puisqu'ils n'ont pu être achevés en temps voulu en raison de problèmes matériels liés à l'utilisation d'un robot mobile.
Style APA, Harvard, Vancouver, ISO itp.
20

Violich, Stephen Scott. "Fusing Loopless Algorithms for Combinatorial Generation". Thesis, University of Canterbury. Computer Science and Software Engineering, 2006. http://hdl.handle.net/10092/1075.

Pełny tekst źródła
Streszczenie:
Loopless algorithms are an interesting challenge in the field of combinatorial generation. These algorithms must generate each combinatorial object from its predecessor in no more than a constant number of instructions, thus achieving theoretically minimal time complexity. This constraint rules out powerful programming techniques such as iteration and recursion, which makes loopless algorithms harder to develop and less intuitive than other algorithms. This thesis discusses a divide-and-conquer approach by which loopless algorithms can be developed more easily and intuitively: fusing loopless algorithms. If a combinatorial generation problem can be divided into subproblems, it may be possible to conquer it looplessly by fusing loopless algorithms for its subproblems. A key advantage of this approach is that is allows existing loopless algorithms to be reused. This approach is not novel, but it has not been generalised before. This thesis presents a general framework for fusing loopless algorithms, and discusses its implications. It then applies this approach to two combinatorial generation problems and presents two new loopless algorithms. The first new algorithm, MIXPAR, looplessly generates well-formed parenthesis strings comprising two types of parentheses. It is the first loopless algorithm for generating these objects. The second new algorithm, MULTPERM, generates multiset permutations in linear space using only arrays, a benchmark recently set by Korsh and LaFollette (2004). Algorithm MULTPERM is evaluated against Korsh and LaFollette's algorithm, and shown to be simpler and more efficient in both space and time.
Style APA, Harvard, Vancouver, ISO itp.
21

Senouci, Mustapha. "De l'usage de la théorie des fonctions de croyance dans le déploiement et le contrôle de réseaux de capteurs sans fil". Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1045.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur les problèmes de déploiement des Réseaux de Capteurs sans Fil (RCsF). Elle suit trois directions principales : (1) le déploiement aléatoire, (2) le déploiement déterministe, et (3) l'auto-déploiement. En premier lieu, nous présentons une étude sur le placement aléatoire des capteurs dans les RCsF et nous élaborons une stratégie pratique de déploiement aléatoire. Ensuite, dans le cadre d'un déploiement déterministe, nous analysons le problème de gestion des imperfections liées à la collecte des données par les capteurs. Nous discutons les modèles de couverture et les algorithmes de placement existants et nous exploitons la théorie de l'évidence pour concevoir des stratégies de déploiement plus efficaces. Enfin, nous explorons les stratégies d'auto-déploiement existantes et nous élaborons un protocole en deux phases, léger et complet, pour assurer une couverture optimisée de la zone contrôlée en utilisant un RCsF mobile. Les résultats obtenus montrent l'efficacité des approches proposée qui ont été étudiées à la fois sur des données synthétiques que sur un test expérimental
This dissertation is an in-depth investigation of the Wireless Sensor Networks (WSNs) deployment problems that follows three general directions: (1) random deployment, (2) deterministic deployment, and (3) self-deployment. First, we present a survey and taxonomy of random node placement in WSNs and we devise a practical random deployment strategy. Second, we analyze the uncertainty-aware deterministic WSNs deployment problem where sensors may not always provide reliable information. We discuss sensor coverage models and placement algorithms found in the literature and we investigate the evidence theory to design better deployment strategies. We devise evidence-based sensor coverage models and we propose several polynomial-time uncertainty-aware deployment algorithms. Third, we explore the published self-deployment strategies and we devise a lightweight and comprehensive two-phase protocol, for ensuring area coverage employing a mobile WSN. Experimental results based on synthetic data sets, data traces collected in a real deployment, and an experimental test, show that the proposed approaches outperform the state-of-the-art deployment strategies
Style APA, Harvard, Vancouver, ISO itp.
22

Kodali, Mallika. "Fusion algorithms for decentralized estimation of parameter /". Available to subscribers only, 2005. http://proquest.umi.com/pqdweb?did=1075698501&sid=15&Fmt=2&clientId=1509&RQT=309&VName=PQD.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
23

Wellington, Sean. "Algorithms for sensor validation and multisensor fusion". Thesis, Southampton Solent University, 2002. http://ssudl.solent.ac.uk/398/.

Pełny tekst źródła
Streszczenie:
Existing techniques for sensor validation and sensor fusion are often based on analytical sensor models. Such models can be arbitrarily complex and consequently Gaussian distributions are often assumed, generally with a detrimental effect on overall system performance. A holistic approach has therefore been adopted in order to develop two novel and complementary approaches to sensor validation and fusion based on empirical data. The first uses the Nadaraya-Watson kernel estimator to provide competitive sensor fusion. The new algorithm is shown to reliably detect and compensate for bias errors, spike errors, hardover faults, drift faults and erratic operation, affecting up to three of the five sensors in the array. The inherent smoothing action of the kernel estimator provides effective noise cancellation and the fused result is more accurate than the single 'best sensor'. A Genetic Algorithm has been used to optimise the Nadaraya-Watson fuser design. The second approach uses analytical redundancy to provide the on-line sensor status output μH∈[0,1], where μH=1 indicates the sensor output is valid and μH=0 when the sensor has failed. This fuzzy measure is derived from change detection parameters based on spectral analysis of the sensor output signal. The validation scheme can reliably detect a wide range of sensor fault conditions. An appropriate context dependent fusion operator can then be used to perform competitive, cooperative or complementary sensor fusion, with a status output from the fuser providing a useful qualitative indication of the status of the sensors used to derive the fused result. The operation of both schemes is illustrated using data obtained from an array of thick film metal oxide pH sensor electrodes. An ideal pH electrode will sense only the activity of hydrogen ions, however the selectivity of the metal oxide device is worse than the conventional glass electrode. The use of sensor fusion can therefore reduce measurement uncertainty by combining readings from multiple pH sensors having complementary responses. The array can be conveniently fabricated by screen printing sensors using different metal oxides onto a single substrate.
Style APA, Harvard, Vancouver, ISO itp.
24

Bhattacharya, Shaondip. "Multi-agent System Distributed Sensor Fusion Algorithms". Thesis, Luleå tekniska universitet, Rymdteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-65839.

Pełny tekst źródła
Streszczenie:
The concept of consensus filters for sensor fusion is not an entirely new proposition but one with an internally implemented Bayesian fusion is. This work documents a novel state update algorithm for sensor fusion which works using the principle of Bayesian fusion of data with variance implemented on a single integrator consensus algorithm. Comparative demonstrations of how consensus over a pinning network is reached are presented along with a weighted Bayesian Luenberger type observer and a ’Consensus on estimates’ algorithm. This type of a filter is something that is novel and has not been encountered in previous literature related to this topic to the best of our knowledge. In this work, we also extend the proof for a distributed Luenberger type observer design to include the case where the network being considered is a strongly connected digraph.
Style APA, Harvard, Vancouver, ISO itp.
25

Vaquette, Geoffrey. "Reconnaissance robuste d'activités humaines par vision". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS090.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la segmentation supervisée d'un flux vidéo en fragments correspondant à des activités de la vie quotidienne. En différenciant geste, action et activité, cette thèse s'intéresse aux activités à haut niveau sémantique telles que "Cuisiner" ou "Prendre son repas" par opposition à des actions comme "Découper un aliment". Pour cela, elle s'appuie sur l'algorithme DOHT (Deeply Optimized Hough Transform), une méthode de l'état de l'art utilisant un paradigme de vote (par transformée de Hough). Dans un premier temps, nous adaptons l'algorithme DOHT pour fusionner les informations en provenance de différents capteurs à trois niveaux différents de l'algorithme. Nous analysons l'effet de ces trois niveaux de fusion et montrons son efficacité par une évaluation sur une base de données composée d'actions de la vie quotidienne. Ensuite, une étude des jeux de données existant est menée. Constatant le manque de vidéos adaptées à la segmentation et classification (détection) d'activités à haut niveau sémantique, une nouvelle base de données est proposée. Enregistrée dans un environnement réaliste et dans des conditions au plus proche de l'application finale, elle contient des vidéos longues et non découpées adaptées à un contexte de détection. Dans un dernier temps, nous proposons une approche hiérarchique à partir d'algorithmes DOHT pour reconnaître les activités à haut niveau sémantique. Cette approche à deux niveaux décompose le problème en une détection non-supervisée d'actions pour ensuite détecter les activités désirées
This thesis focuses on supervised activity segmentation from video streams within application context of smart homes. Three semantic levels are defined, namely gesture, action and activity, this thesis focuses mainly on the latter. Based on the Deeply Optimized Hough Transform paridigm, three fusion levels are introduced in order to benefit from various modalities. A review of existing action based datasets is presented and the lack of activity detection oriented database is noticed. Then, a new dataset is introduced. It is composed of unsegmented long time range daily activities and has been recorded in a realistic environment. Finaly, a hierarchical activity detection method is proposed aiming to detect high level activities from unsupervised action detection
Style APA, Harvard, Vancouver, ISO itp.
26

Héry, Elwan. "Localisation coopérative de véhicules autonomes communicants". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2516.

Pełny tekst źródła
Streszczenie:
Afin de naviguer en autonomie un véhicule doit être capable de se localiser précisément par rapport aux bords de voie pour ne pas sortir de celle-ci et par rapport aux véhicules et piétons pour ne pas causer d'accident. Cette thèse traite de l'intérêt de la communication dans l'amélioration de la localisation des véhicules autonomes. La navigation autonome sur route est souvent réalisée à partir de coordonnées cartésiennes. Afin de mieux représenter la pose d'un véhicule relativement à la voie dans laquelle il circule, nous étudions l'utilisation de coordonnées curvilignes le long de chemins enregistrés dans des cartes. Ces coordonnées généralisent l'abscisse curviligne en y ajoutant un écart latéral signé par rapport au centre de la voie et une orientation relative au centre de cette voie en prenant en compte le sens de circulation. Une première approche de localisation coopérative est réalisée à partir de ces coordonnées. Une fusion de données à une dimension permet de montrer l'intérêt de la localisation coopérative dans le cas simplifié où l'écart latéral, l'orientation curviligne et la pose relative entre deux véhicules sont connus avec précision. Les problèmes de corrélation des erreurs dus à l'échange d'information sont pris en compte grâce à un filtre par intersection de covariance. Nous présentons ensuite à une méthode de perception de type ICP (Iterative Closest Point) pour déterminer la pose relative entre les véhicules à partir de points LiDAR et d'un modèle polygonal 2D représentant la forme du véhicule. La propagation des erreurs de poses absolues des véhicules à l'aide de poses relatives estimées avec leurs incertitudes se fait via des équations non linéaires qui peuvent avoir un fort impact sur la consistance. Les poses des différents véhicules entourant l'égo-véhicule sont estimés dans une carte locale dynamique (CLD) permettant d'enrichir la carte statique haute définition décrivant le centre de la voie et les bords de celle-ci. La carte locale dynamique est composée de l'état de chaque véhicule communicant. Les états sont fusionnés en utilisant un algorithme asynchrone, à partir de données disponibles à des temps variables. L'algorithme est décentralisé, chaque véhicule calculant sa propre CLD et la partageant. Les erreurs de position des récepteurs GNSS étant biaisées, une détection de marquages est introduite pour obtenir la distance latérale par rapport au centre de la voie afin d'estimer ces biais. Des observations LiDAR avec la méthode ICP permettent de plus d'enrichir la fusion avec des contraintes entre les véhicules. Des résultats expérimentaux illustrent les performances de cette approche en termes de précision et de consistance
To be able to navigate autonomously, a vehicle must be accurately localized relatively to all obstacles, such as roadside for lane keeping and vehicles and pedestrians to avoid causing accidents. This PhD thesis deals with the interest of cooperation to improve the localization of cooperative vehicles that exchange information. Autonomous navigation on the road is often based on coordinates provided in a Cartesian frame. In order to better represent the pose of a vehicle with respect to the lane in which it travels, we study curvilinear coordinates with respect to a path stored in a map. These coordinates generalize the curvilinear abscissa by adding a signed lateral deviation from the center of the lane and an orientation relative to the center of the lane taking into account the direction of travel. These coordinates are studied with different track models and using different projections to make the map-matching. A first cooperative localization approach is based on these coordinates. The lateral deviation and the orientation relative to the lane can be known precisely from a perception of the lane borders, but for autonomous driving with other vehicles, it is important to maintain a good longitudinal accuracy. A one-dimensional data fusion method makes it possible to show the interest of the cooperative localization in this simplified case where the lateral deviation, the curvilinear orientation and the relative positioning between two vehicles are accurately known. This case study shows that, in some cases, lateral accuracy can be propagated to other vehicles to improve their longitudinal accuracy. The correlation issues of the errors are taken into account with a covariance intersection filter. An ICP (Iterative Closest Point) minimization algorithm is then used to determine the relative pose between the vehicles from LiDAR points and a 2D polygonal model representing the shape of the vehicle. Several correspondences of the LiDAR points with the model and different minimization approaches are compared. The propagation of absolute vehicle pose using relative poses with their uncertainties is done through non-linear equations that can have a strong impact on consistency. The different dynamic elements surrounding the ego-vehicle are estimated in a Local Dynamic Map (LDM) to enhance the static high definition map describing the center of the lane and its border. In our case, the agents are only communicating vehicles. The LDM is composed of the state of each vehicle. The states are merged using an asynchronous algorithm, fusing available data at variable times. The algorithm is decentralized, each vehicle computing its own LDM and sharing it. As the position errors of the GNSS receivers are biased, a marking detection is introduced to obtain the lateral deviation from the center of the lane in order to estimate these biases. LiDAR observations with the ICP method allow to enrich the fusion with the constraints between the vehicles. Experimental results of this fusion show that the vehicles are more accurately localized with respect to each other while maintaining consistent poses
Style APA, Harvard, Vancouver, ISO itp.
27

Boyd, Aaron T. T. (Aaron Thomas Thalman) 1976. "Educational fusion : a distributed visual environment for teaching algorithms". Thesis, Massachusetts Institute of Technology, 1999. http://hdl.handle.net/1721.1/80222.

Pełny tekst źródła
Streszczenie:
Thesis (S.B. and M.Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1999.
Includes bibliographical references (leaves 56-58).
by Aaron T.T. Boyd
S.B.and M.Eng.
Style APA, Harvard, Vancouver, ISO itp.
28

Xu, Min. "Image registration and image fusion Algorithms and performance bounds /". Related electronic resource: Current Research at SU : database of SU dissertations, recent titles available full text, 2009. http://wwwlib.umi.com/cr/syr/main.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
29

Mustaniemi, J. (Janne). "Image fusion algorithm for a multi-aperture camera". Master's thesis, University of Oulu, 2016. http://urn.fi/URN:NBN:fi:oulu-201609172801.

Pełny tekst źródła
Streszczenie:
Portable devices such as mobile phones have become thinner and smaller over the years. This development sets new challenges for the camera industry. Consumers are looking for high quality cameras with versatile features. Modern manufacturing technology and powerful signal processors make it possible to produce a small-sized multi-aperture camera with good image quality. Such a camera is worthy alternative to traditional Bayer matrix camera. In this master’s thesis, an image processing algorithm is designed and implemented for a four-aperture camera. The camera consists of four separate camera units, each having dedicated optics and color filter. Each camera unit has a slightly different viewpoint, which causes parallax error between the captured images. This error has to be corrected before the individual images are combined into a single RGB image. In practice, corresponding pixels are searched from each image using graph cuts method and mutual information similarity measure. Implemented algorithm also utilizes a trifocal tensor, which allows images to be processed together, instead of matching each image pair independently. Matching of corresponding pixels produces a disparity map (depth map) that is used to modify the input images. Moreover, the depth map was used for synthetic refocusing, which aims to change the image focus after capturing. The algorithm was evaluated by visually inspecting the quality of the output images. Images were also compared against the reference images captured by the same test camera system. The results show that the overall quality of the fused images is near the reference images. Closer inspection reveals small color errors, typically found near the object borders. Most of the errors are caused by the fact that some of the pixels are not visible in all images. Promising results were obtained when depth map was used for post-capture refocusing. Since the quality of the effect highly depends on the depth map, the above-mentioned visibility problem causes small errors to the refocused image. Future improvements, such as occlusion handling and sub-pixel accuracy would significantly increase the quality of fused and refocused images
Kannettavat laitteet kuten matkapuhelimet ovat tulleet vuosi vuodelta pienemmiksi ja ohuemmiksi. Kyseinen kehitys on tuonut myös lisää haasteita kamerateollisuudelle. Kuluttajat odottavat kameralta hyvää kuvanlaatua ja monipuolisia kuvausominaisuuksia. Nykyaikaiset valmistustekniikat ja tehokkaat signaaliprosessorit mahdollistavat pienikokoisen sekä hyvälaatuisen moniaukkokameran toteuttamisen. Kamera on varteenotettava vaihtoehto tavanomaiselle Bayer-matriisikameralle. Tässä diplomityössä on tarkoitus suunnitella ja toteuttaa kuvankäsittelyalgoritmi neliaukkokameraan. Kamera koostuu neljästä erillisestä kamerayksiköstä, joilla kullakin on oma optiikkansa sekä värisuodatin. Koska jokaisella kamerayksiköllä on hieman erilainen kuvakulma, aiheutuu kuvien välille parallaksivirhettä. Tämä virhe tulee korjata, ennen kuin yksittäiset kuvat yhdistetään yhdeksi värikuvaksi. Käytännössä tämä tarkoittaa sitä, että jokaisesta kuvasta etsitään toisiaan vastaavat kuvapisteet. Apuna tähän käytetään graph cuts -menetelmää sekä keskinäisinformaatiota. Algoritmi käyttää hyväkseen myös trifokaalista tensoria, joka mahdollistaa useamman kuvan sovittamisen yhtäaikaisesti sen sijaan, että jokainen kuvapari sovitettaisiin erikseen. Vastinpisteiden sovittaminen tuottaa dispariteettikartan (syvyyskartta), minkä perusteella syötekuvia muokataan. Syvyyskarttaa käytetään myös kuvan synteettiseen uudelleen tarkennukseen, minkä tarkoituksena on muuttaa kuvan tarkennusta kuvan ottamisen jälkeen. Algoritmin suorituskykyä arvioitiin tarkastelemalla tuloskuvien visuaalista laatua. Kuvia verrattiin myös referenssikuviin, jotka otettiin samalla testikamerajärjestelmällä. Tulokset osoittavat, että fuusioitujen kuvien laatu on lähellä referenssikuvien laatua. Lähempi tarkastelu paljastaa pieniä värivirheitä, jotka sijaitsevat tyypillisesti kuvassa näkyvien kohteiden reunoilla. Suurin osa virheistä aiheutuu siitä, että kaikki kuvapisteet eivät ole näkyvillä jokaisessa kuvassa. Lupaavia tuloksia saatiin myös kun syvyyskarttaa käytettiin synteettiseen uudelleen tarkennukseen. Koska efektin laatu riippuu voimakkaasti syvyyskartasta, edellä mainittu katvealueongelma aiheuttaa pieniä virheitä tuloskuvaan. Lukuisat jatkokehitysmahdollisuudet, kuten katvealueiden käsittely ja alipikselitarkkuus parantaisivat huomattavasti sekä fuusioitujen että uudelleen tarkennettujen kuvien laatua
Style APA, Harvard, Vancouver, ISO itp.
30

Senouci, Mustapha. "De l'usage de la théorie des fonctions de croyance dans le déploiement et le contrôle de réseaux de capteurs sans fil". Electronic Thesis or Diss., Paris Est, 2014. http://www.theses.fr/2014PEST1045.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur les problèmes de déploiement des Réseaux de Capteurs sans Fil (RCsF). Elle suit trois directions principales : (1) le déploiement aléatoire, (2) le déploiement déterministe, et (3) l'auto-déploiement. En premier lieu, nous présentons une étude sur le placement aléatoire des capteurs dans les RCsF et nous élaborons une stratégie pratique de déploiement aléatoire. Ensuite, dans le cadre d'un déploiement déterministe, nous analysons le problème de gestion des imperfections liées à la collecte des données par les capteurs. Nous discutons les modèles de couverture et les algorithmes de placement existants et nous exploitons la théorie de l'évidence pour concevoir des stratégies de déploiement plus efficaces. Enfin, nous explorons les stratégies d'auto-déploiement existantes et nous élaborons un protocole en deux phases, léger et complet, pour assurer une couverture optimisée de la zone contrôlée en utilisant un RCsF mobile. Les résultats obtenus montrent l'efficacité des approches proposée qui ont été étudiées à la fois sur des données synthétiques que sur un test expérimental
This dissertation is an in-depth investigation of the Wireless Sensor Networks (WSNs) deployment problems that follows three general directions: (1) random deployment, (2) deterministic deployment, and (3) self-deployment. First, we present a survey and taxonomy of random node placement in WSNs and we devise a practical random deployment strategy. Second, we analyze the uncertainty-aware deterministic WSNs deployment problem where sensors may not always provide reliable information. We discuss sensor coverage models and placement algorithms found in the literature and we investigate the evidence theory to design better deployment strategies. We devise evidence-based sensor coverage models and we propose several polynomial-time uncertainty-aware deployment algorithms. Third, we explore the published self-deployment strategies and we devise a lightweight and comprehensive two-phase protocol, for ensuring area coverage employing a mobile WSN. Experimental results based on synthetic data sets, data traces collected in a real deployment, and an experimental test, show that the proposed approaches outperform the state-of-the-art deployment strategies
Style APA, Harvard, Vancouver, ISO itp.
31

Drolet, Louis. "Algorithme de fusion de capteurs à multiples filtres de Kalman". Mémoire, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/1082.

Pełny tekst źródła
Streszczenie:
Afin de faire l'inspection des surfaces de béton submergées des barrages hydroélectriques, les chercheurs de l'Unité Robotique de l'Institut de recherche d'Hydro-Québec ont développé un véhicule sous-marin télé-opéré. Le véhicule identifie les défauts sur les surfaces des barrages et les reproduit dans un environnement virtuel. Pour ce faire, la position du véhicule doit toujours être connue avec précision. Ce mémoire décrit un algorithme de fusion de capteurs qui utilise de façon optimale l'information en provenance de divers capteurs afin d'obtenir la meilleure estimation possible de la position du véhicule, tant que celui-ci demeure dans un mouvement plan. L'algorithme utilise un répertoire de filtres de Kalman et offre plusieurs avantages importants par rapport au filtre de Kalman traditionnel. Selon les capteurs présents sur le véhicule, un processus de sélection parmi un répertoire de filtres de Kalman permet l'ajout et le retrait de capteurs sans aucune modification aux modèles des filtres. Les filtres sont aussi conçus de façon à traiter les données de façon asynchrone, ce qui permet de recevoir les données des différents capteurs à différentes fréquences et d'en faire une fusion optimale. De plus, l'algorithme autorise la fusion de capteurs redondants en utilisant un processus de fusion de filtres de Kalman. Finalement, une stratégie simple de filtrage adaptatif donne une plus grande flexibilité au système en permettant l'évaluation du niveau de bruit des capteurs pour lesquels ce niveau est imprécis ou inconnu. Des essais en simulation démontrent les performances des différents éléments de la stratégie de fusion de capteurs développée.
Style APA, Harvard, Vancouver, ISO itp.
32

Omar, Zaid Bin. "Signal processing algorithms for enhanced image fusion performance and assessment". Thesis, Imperial College London, 2012. http://hdl.handle.net/10044/1/10660.

Pełny tekst źródła
Streszczenie:
The dissertation presents several signal processing algorithms for image fusion in noisy multimodal conditions. It introduces a novel image fusion method which performs well for image sets heavily corrupted by noise. As opposed to current image fusion schemes, the method has no requirements for a priori knowledge of the noise component. The image is decomposed with Chebyshev polynomials (CP) being used as basis functions to perform fusion at feature level. The properties of CP, namely fast convergence and smooth approximation, renders it ideal for heuristic and indiscriminate denoising fusion tasks. Quantitative evaluation using objective fusion assessment methods show favourable performance of the proposed scheme compared to previous efforts on image fusion, notably in heavily corrupted images. The approach is further improved by incorporating the advantages of CP with a state-of-the-art fusion technique named independent component analysis (ICA), for joint-fusion processing based on region saliency. Whilst CP fusion is robust under severe noise conditions, it is prone to eliminating high frequency information of the images involved, thereby limiting image sharpness. Fusion using ICA, on the other hand, performs well in transferring edges and other salient features of the input images into the composite output. The combination of both methods, coupled with several mathematical morphological operations in an algorithm fusion framework, is considered a viable solution. Again, according to the quantitative metrics the results of our proposed approach are very encouraging as far as joint fusion and denoising are concerned. Another focus of this dissertation is on a novel metric for image fusion evaluation that is based on texture. The conservation of background textural details is considered important in many fusion applications as they help define the image depth and structure, which may prove crucial in many surveillance and remote sensing applications. Our work aims to evaluate the performance of image fusion algorithms based on their ability to retain textural details from the fusion process. This is done by utilising the gray-level co-occurrence matrix (GLCM) model to extract second-order statistical features for the derivation of an image textural measure, which is then used to replace the edge-based calculations in an objective-based fusion metric. Performance evaluation on established fusion methods verifies that the proposed metric is viable, especially for multimodal scenarios.
Style APA, Harvard, Vancouver, ISO itp.
33

Drolet, Louis. "Algorithme de fusion de capteurs à multiples filtres de Kalman". Sherbrooke : Université de Sherbrooke, 2001.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
34

Jing, Hongyuan. "Landmine detection algorithm design based on data fusion technology". Thesis, University of Leicester, 2018. http://hdl.handle.net/2381/43099.

Pełny tekst źródła
Streszczenie:
This research has focused on close-in landmine detection, which aims to identify landmines in a particular landmine area. Close-range landmine detection requires both sub-surface sensors, such as metal detectors and ground penetrating radar (GPR), and surface sensors, such as optical cameras. A new multi-focus image fusion algorithm is proposed which outperforms the existing intensity-hue-saturation (IHS) and principle components analysis (PCA) algorithms on both visual and fusion parameter analysis. In addition, the proposed algorithm can save 30.9% running time than the IHS algorithm, which is the same level as the existing PCA algorithm. A novel single GPR sensor landmine detection algorithm entropy-based region selecting algorithm is proposed which uses the entropy value of the region as the feature and continuous layers instead of a hard threshold. Two A-scan based statistics algorithms and a GPR signal oscillation feature based detection algorithm are also proposed. The results show that the proposed entropy-based algorithm outperforms the existing region selection algorithm on both detection accuracy and running time. The proposed statistics algorithms and GPR feature-based algorithm outperform the edge histogram descriptor and edge energy algorithms on both detection accuracy range, running time and memory usage. In addition, the GPR feature-based algorithm can reduce the false alarm rate (FAR) by 22% for all targets at 90% probability of detection. With regards to data fusion system design, this research overcomes the limitations of the existing Bayesian fusion approach. A new Kalman-Bayes based fusion system is developed which reduces the system uncertainty and improves the fusion process. The experimental results have shown that the proposed Kalman-Bayes fusion system and enhanced fuzzy fusion system can reach 7.8% FAR at 91.1% detection rate and 6.30% FAR at 92.4% detection rate, correspondingly, outperforming the existing Bayes and fuzzy fusion systems in terms of detection ability.
Style APA, Harvard, Vancouver, ISO itp.
35

Glazer, Joshua E. (Joshua Eric) 1977. "Improved algorithm visualization and witness detection in educational fusion". Thesis, Massachusetts Institute of Technology, 2000. http://hdl.handle.net/1721.1/86664.

Pełny tekst źródła
Streszczenie:
Thesis (M.Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2000.
Includes bibliographical references (p. 106-108).
by Joshua E. Glazer.
M.Eng.
Style APA, Harvard, Vancouver, ISO itp.
36

Bougiouklis, Theodoros C. "Traffic management algorithms in wireless sensor networks". Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2006. http://library.nps.navy.mil/uhtbin/hyperion/06Sep%5FBougiouklis.pdf.

Pełny tekst źródła
Streszczenie:
Thesis (M.S. in Electrical Engineering)--Naval Postgraduate School, September 2006.
Thesis Advisor(s): Weillian Su. "September 2006." Includes bibliographical references (p. 79-80). Also available in print.
Style APA, Harvard, Vancouver, ISO itp.
37

Akkaladevi, Somasheker. "Decision Fusion for Protein Secondary Structure Prediction". Digital Archive @ GSU, 2006. http://digitalarchive.gsu.edu/cs_diss/9.

Pełny tekst źródła
Streszczenie:
Prediction of protein secondary structure from primary sequence of amino acids is a very challenging task, and the problem has been approached from several angles. Proteins have many different biological functions; they may act as enzymes or as building blocks (muscle fibers) or may have transport function (e.g., transport of oxygen). The three-dimensional protein structure determines the functional properties of the protein. A lot of interesting work has been done on this problem, and over the last 10 to 20 years the methods have gradually improved in accuracy. In this dissertation we investigate several techniques for predicting the protein secondary structure. The prediction is carried out mainly using pattern classification techniques such as neural networks, genetic algorithms, simulated annealing. Each individual algorithm may work well in certain situations but fails in others. Capitalizing on the positive decisions can be achieved by forcing the various methods to collaborate to reach a unified consensus based on their previous performances. The process of combining classifiers is called decision fusion. The various decision fusion techniques such as the committee method, correlation method and the Bayesian inference methods to fuse the solutions from various approaches and to get better prediction accuracy are thoroughly explored in this dissertation. The RS126 data set was used for training and testing purposes. The results of applying pattern classification algorithms along with decision fusion techniques showed improvement in the prediction accuracy compared to that of prediction by neural networks or pattern classification algorithms individually or combined with neural networks. This research has shown that decision fusion techniques can be used to obtain better protein secondary structure prediction accuracy.
Style APA, Harvard, Vancouver, ISO itp.
38

Aziz, Ashraf Mamdouh Abdel. "New data fusion algorithms for distributed multi-sensor multi-target environments". Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 1999. http://handle.dtic.mil/100.2/ADA369780.

Pełny tekst źródła
Streszczenie:
Dissertation (Ph.D. in Electrical Engineering) Naval Postgraduate School, September 1999.
"September 1999". Dissertation supervisor(s): Robert Cristi, Murali Tummala. Includes bibliographical references (p. 199-214). Also avaliable online.
Style APA, Harvard, Vancouver, ISO itp.
39

Bilgin, Arda. "Selection And Fusion Of Multiple Stereo Algorithms For Accurate Disparity Segmentation". Master's thesis, METU, 2008. http://etd.lib.metu.edu.tr/upload/2/12610133/index.pdf.

Pełny tekst źródła
Streszczenie:
Fusion of multiple stereo algorithms is performed in order to obtain accurate disparity segmentation. Reliable disparity map of real-time stereo images is estimated and disparity segmentation is performed for object detection purpose. First, stereo algorithms which have high performance in real-time applications are chosen among the algorithms in the literature and three of them are implemented. Then, the results of these algorithms are fused to gain better performance in disparity estimation. In fusion process, if a pixel has the same disparity value in all algorithms, that disparity value is assigned to the pixel. Other pixels are labelled as unknown disparity. Then, unknown disparity values are estimated by a refinement procedure where neighbourhood disparity information is used. Finally, the resultant disparity map is segmented by using mean shift segmentation. The proposed method is tested in three different stereo data sets and several real stereo pairs. The experimental results indicate an improvement for the stereo analysis performance by the usage of fusion process and refinement procedure. Furthermore, disparity segmentation is realized successfully by using mean shift segmentation for detecting objects at different depth levels.
Style APA, Harvard, Vancouver, ISO itp.
40

Rivera, velázquez Josué. "Analysis and development of algorithms for data fusion in sensor arrays". Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS038.

Pełny tekst źródła
Streszczenie:
Actuellement, la plupart des capteurs sont de nature `` intelligente '', ce qui signifie que les éléments de détection et l'électronique associée sont intégrés sur le même circuit. Parmi ces capteurs de nouvelle génération les systèmes micro-électro-mécaniques (MEMS) utilisent les technologies microélectroniques pour la fabrication par lots de capteurs à des volumes sans précédent et à des prix bas. Si ces composants sur étagère sont satisfaisants pour de nombreuses applications nécessitant un niveau de précision faible à moyen, ils ne peuvent toujours pas répondre pleinement aux besoins de performances de nombreuses applications de haute précision.Cependant, en raison de leur prix décroissant, de leur faible encombrement et de leur faible consommation d'énergie, il est désormais possible de mettre en œuvre des systèmes avec des dizaines ou même des centaines de capteurs. Ces systèmes amènent une solution possible au manque de performances des capteurs individuels et peuvent en outre améliorer la fiabilité et la robustesse de la détection. Les matrices de capteurs sont l'une de ces méthodes de mesures redondantes qui surviennent en réponse aux problèmes susmentionnés. Le développement d'algorithmes de fusion de données pour ces systèmes est un sujet de recherche fréquemment étudié dans la littérature. Néanmoins, il reste encore beaucoup de recherches à faire dans ce domaine de plus en plus important. L'émergence de nouvelles applications aux besoins de plus en plus complexes accroît la nécessité de nouveaux algorithmes avec des propriétés telles que la facilité d'intégration, l'adaptabilité, la robustesse, le faible coût de calcul et la généricité, entre autres.Dans cette thèse, nous présentons un nouvel algorithme pour les systèmes multi-capteurs qui propose une solution viable pour surmonter les contraintes mentionnées précédemment. La proposition est une méthode on-line basée sur une estimation quadratique sans biais de norme minimale (acronyme en Anglais: MINQUE) qui est capable de calculer les variances des capteurs sans connaître les entrées. Cet algorithme est capable de suivre les changements de variances des capteurs causés principalement par les effets du bruit basse fréquence, ainsi que de détecter et de signaler les capteurs affectés par des erreurs permanent ou transitoires. Cette approche est générique, ce qui signifie qu'elle peut être mise en œuvre pour différents types de systèmes de capteurs. De même, cet algorithme peut être implémenté dans des systèmes de réseaux de capteurs.Deux autres contributions de cette thèse peuvent être répertoriées. La première est un modèle de capteur générique pour les simulations de capteurs au niveau système. Cet outil créé dans l'environnement Matlab Simulink permet l'analyse des implémentations d'algorithmes de fusion de données dans des systèmes multi-capteurs. Contrairement aux modèles existant auparavant dans la littérature, ce modèle présente des caractéristiques telles que la généricité et l'inclusion de bruits basse fréquence, ainsi que le paramétrage à travers des graphiques d'analyse spectrale (graphique de Densité Spectrale de Puissance) et des graphiques d'analyse de stabilité dans le temps (graphique de l'écart Allan). La seconde est une étude visant à comparer les performances et la faisabilité de la mise en œuvre de différents algorithmes de fusion de données dans les systèmes multi-capteurs. Cette étude contient une analyse de la complexité de calcul, de la mémoire requise et de l'erreur d'estimation. Les algorithmes analysés sont : la méthode des moindres carrés, le réseau de neurones artificiel, le filtre de Kalman et la pondération aléatoire
Currently, most of the sensors are ``smart'' in nature, which means that sensing elements and associated electronics are integrated on the same chip. Among these new generation of sensors, the Micro-Electro-Mechanical-Systems (MEMS) make use of Microelectronics technologies for batch manufacturing of small footprint sensors to unprecedented volumes and at low prices. If those components of the shelf are satisfactory for many consumer and low- to medium-end applications, they still cannot fully meet the performance needs of many high-end applications.However, due to their decreasing price, their small footprint, and their low-power consumption, it is now feasible to implement systems with tens and even hundreds of sensors. Those systems give a possible solution to the lack of performance of individual sensors and additionally they can also improve dependability and robustness of sensing. Sensor array systems are one of these methods of redundant measurements that arise in response to the aforementioned problems. The development of data fusion algorithms for sensor array systems is a research topic frequently studied in the literature. Even so, it still remains a lot of research work to do in this increasingly important area. The emergence of new applications with increasingly complex needs is growing the requirement for new algorithms with features such as integration, adaptability, dependability, low computational cost, and genericity among others.In this thesis we present a new algorithm for sensor array systems that propose a viable solution to overcome constraints mentioned before. The proposal is an on-line method based on the MInimum Norm Quadratic Unbiased Estimation (MINQUE) that is able to compute sensors' variances without the knowledge of the inputs. This algorithm is capable to track changes in sensors' variances caused principally by the low-frequency noise effects, as well as to detect and point out sensors affected by permanent or transitory errors. This approach is generic, which means that it can be implemented for different types of sensor array systems. In addition, this algorithm can be also implemented in sensor network systems.Two more contributions of this thesis can be listed. The first is a generic sensor model for sensor simulations at system level. This tool created inside the Matlab Simulink environment permits the analysis of implementations of data fusion algorithms in multi-sensor systems. Unlike the models previously existing in the literature, this sensor model has characteristics such as genericity and inclusion of low-frequency noises. The second is a study to compare the performance and feasibility in the implementation of different algorithms for data fusion in sensor array systems. This study contains an analysis of computational complexity, memory required, and the error in estimation. The analyzed algorithms are : the method of least squares, an artificial neural network, Kalman filter, and Random weighting
Style APA, Harvard, Vancouver, ISO itp.
41

Baravdish, Ninos. "Information Fusion of Data-Driven Engine Fault Classification from Multiple Algorithms". Thesis, Linköpings universitet, Fordonssystem, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-176508.

Pełny tekst źródła
Streszczenie:
As the automotive industry constantly makes technological progress, higher demands are placed on safety, environmentally friendly and durability. Modern vehicles are headed towards increasingly complex system, in terms of both hardware and software making it important to detect faults in any of the components. Monitoring the engine’s health has traditionally been done using expert knowledge and model-based techniques, where derived models of the system’s nominal state are used to detect any deviations. However, due to increased complexity of the system this approach faces limitations regarding time and knowledge to describe the engine’s states. An alternative approach is therefore data-driven methods which instead are based on historical data measured from different operating points that are used to draw conclusion about engine’s present state. In this thesis a proposed diagnostic framework is presented, consisting of a systematically approach for fault classification of known and unknown faults along with a fault size estimation. The basis for this lies in using principal component analysis to find the fault vector for each fault class and decouple one fault at the time, thus creating different subspaces. Importantly, this work investigates the efficiency of taking multiple classifiers into account in the decision making from a performance perspective. Aggregating multiple classifiers is done solving a quadratic optimization problem. To evaluate the performance, a comparison with a random forest classifier has been made. Evaluation with challenging test data show promising results where the algorithm relates well to the performance of random forest classifier.
Style APA, Harvard, Vancouver, ISO itp.
42

Jiao, Lianmeng. "Classification of uncertain data in the framework of belief functions : nearest-neighbor-based and rule-based approaches". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2222/document.

Pełny tekst źródła
Streszczenie:
Dans de nombreux problèmes de classification, les données sont intrinsèquement incertaines. Les données d’apprentissage disponibles peuvent être imprécises, incomplètes, ou même peu fiables. En outre, des connaissances spécialisées partielles qui caractérisent le problème de classification peuvent également être disponibles. Ces différents types d’incertitude posent de grands défis pour la conception de classifieurs. La théorie des fonctions de croyance fournit un cadre rigoureux et élégant pour la représentation et la combinaison d’une grande variété d’informations incertaines. Dans cette thèse, nous utilisons cette théorie pour résoudre les problèmes de classification des données incertaines sur la base de deux approches courantes, à savoir, la méthode des k plus proches voisins (kNN) et la méthode à base de règles.Pour la méthode kNN, une préoccupation est que les données d’apprentissage imprécises dans les régions où les classes de chevauchent peuvent affecter ses performances de manière importante. Une méthode d’édition a été développée dans le cadre de la théorie des fonctions de croyance pour modéliser l’information imprécise apportée par les échantillons dans les régions qui se chevauchent. Une autre considération est que, parfois, seul un ensemble de données d’apprentissage incomplet est disponible, auquel cas les performances de la méthode kNN se dégradent considérablement. Motivé par ce problème, nous avons développé une méthode de fusion efficace pour combiner un ensemble de classifieurs kNN couplés utilisant des métriques couplées apprises localement. Pour la méthode à base de règles, afin d’améliorer sa performance dans les applications complexes, nous étendons la méthode traditionnelle dans le cadre des fonctions de croyance. Nous développons un système de classification fondé sur des règles de croyance pour traiter des informations incertains dans les problèmes de classification complexes. En outre, dans certaines applications, en plus de données d’apprentissage, des connaissances expertes peuvent également être disponibles. Nous avons donc développé un système de classification hybride fondé sur des règles de croyance permettant d’utiliser ces deux types d’information pour la classification
In many classification problems, data are inherently uncertain. The available training data might be imprecise, incomplete, even unreliable. Besides, partial expert knowledge characterizing the classification problem may also be available. These different types of uncertainty bring great challenges to classifier design. The theory of belief functions provides a well-founded and elegant framework to represent and combine a large variety of uncertain information. In this thesis, we use this theory to address the uncertain data classification problems based on two popular approaches, i.e., the k-nearest neighbor rule (kNN) andrule-based classification systems. For the kNN rule, one concern is that the imprecise training data in class over lapping regions may greatly affect its performance. An evidential editing version of the kNNrule was developed based on the theory of belief functions in order to well model the imprecise information for those samples in over lapping regions. Another consideration is that, sometimes, only an incomplete training data set is available, in which case the ideal behaviors of the kNN rule degrade dramatically. Motivated by this problem, we designedan evidential fusion scheme for combining a group of pairwise kNN classifiers developed based on locally learned pairwise distance metrics.For rule-based classification systems, in order to improving their performance in complex applications, we extended the traditional fuzzy rule-based classification system in the framework of belief functions and develop a belief rule-based classification system to address uncertain information in complex classification problems. Further, considering that in some applications, apart from training data collected by sensors, partial expert knowledge can also be available, a hybrid belief rule-based classification system was developed to make use of these two types of information jointly for classification
Style APA, Harvard, Vancouver, ISO itp.
43

Trailović, Lidija. "Ranking and optimization of target tracking algorithms". online access from Digital Dissertation Consortium access full-text, 2002. http://libweb.cityu.edu.hk/cgi-bin/er/db/ddcdiss.pl?3074810.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
44

Elbakary, Mohamed Ibrahim. "Novel Pixel-Level and Subpixel-Level Registration Algorithms for Multi-Modal Imagery Data". Diss., Tucson, Arizona : University of Arizona, 2005. http://etd.library.arizona.edu/etd/GetFileServlet?file=file:///data1/pdf/etd/azu%5Fetd%5F1293%5F1%5Fm.pdf&type=application/pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
45

Doe, Julien Albert. "Sensor Fusion Algorithm for Airborne Autonomous Vehicle Collision Avoidance Applications". DigitalCommons@CalPoly, 2018. https://digitalcommons.calpoly.edu/theses/2004.

Pełny tekst źródła
Streszczenie:
A critical ability of any aircraft is to be able to detect potential collisions with other airborne objects, and maneuver to avoid these collisions. This can be done by utilizing sensors on the aircraft to monitor the sky for collision threats. However, several problems face a system which aims to use multiple sensors for target tracking. The data collected from sensors needs to be clustered, fused, and otherwise processed such that the flight control system can make accurate decisions based on it. Raw sensor data, while filled with useful information, is tainted with inaccuracies due to limitations and imperfections of the sensor. Combined use of different sensors presents further issues in how to handle disagreements between sensor data. This thesis project tackles the problem of processing data from multiple sensors (in this application, a radar and an infrared sensor) on an airborne platform in order to allow the aircraft to make flight corrections to avoid collisions.
Style APA, Harvard, Vancouver, ISO itp.
46

Ayodeji, Akiwowo. "Developing integrated data fusion algorithms for a portable cargo screening detection system". Thesis, Loughborough University, 2012. https://dspace.lboro.ac.uk/2134/9901.

Pełny tekst źródła
Streszczenie:
Towards having a one size fits all solution to cocaine detection at borders; this thesis proposes a systematic cocaine detection methodology that can use raw data output from a fibre optic sensor to produce a set of unique features whose decisions can be combined to lead to reliable output. This multidisciplinary research makes use of real data sourced from cocaine analyte detecting fibre optic sensor developed by one of the collaborators - City University, London. This research advocates a two-step approach: For the first step, the raw sensor data are collected and stored. Level one fusion i.e. analyses, pre-processing and feature extraction is performed at this stage. In step two, using experimentally pre-determined thresholds, each feature decides on detection of cocaine or otherwise with a corresponding posterior probability. High level sensor fusion is then performed on this output locally to combine these decisions and their probabilities at time intervals. Output from every time interval is stored in the database and used as prior data for the next time interval. The final output is a decision on detection of cocaine. The key contributions of this thesis includes investigating the use of data fusion techniques as a solution for overcoming challenges in the real time detection of cocaine using fibre optic sensor technology together with an innovative user interface design. A generalizable sensor fusion architecture is suggested and implemented using the Bayesian and Dempster-Shafer techniques. The results from implemented experiments show great promise with this architecture especially in overcoming sensor limitations. A 5-fold cross validation system using a 12 13 - 1 Neural Network was used in validating the feature selection process. This validation step yielded 89.5% and 10.5% true positive and false alarm rates with 0.8 correlation coefficient. Using the Bayesian Technique, it is possible to achieve 100% detection whilst the Dempster Shafer technique achieves a 95% detection using the same features as inputs to the DF system.
Style APA, Harvard, Vancouver, ISO itp.
47

Li, Lingjie Luo Zhi-Quan. "Data fusion and filtering for target tracking and identification /". *McMaster only, 2003.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
48

Escareno, Juan Antonio. "Conception, modélisation et commande d'un drone convertible". Compiègne, 2008. http://www.theses.fr/2008COMP1746.

Pełny tekst źródła
Streszczenie:
Le but de cette thèse est de développer un véhicule convertible non piloté. Le projet est divisé en trois objectifs : la conception, la modélisation et la commande du véhicule. La conception de l'aéronef est un compromis entre un véhicule à voilure fixe (de type avion) et un véhicule à voilure tournant (de type hélicopte��re), grâce à cette combinaison il offre une grande versatilité pour envisager de différents types de taches. La modélisation est obtenue à partir des formulations Newton-Euler et Lagrange. Au niveau des commandes, les aéronefs convertibles exigent des algorithmes spécifiques de commande pour manipuler le décollage, le vol stationnaire, le vol vers l'avant aussi bien que la transition entre les deux modes de fonctionnement
The goal of this thesis is developing a convertible unmanned aerial vehicle (UAV). The project is divided in three objects : the design, the modeling and the control of the vehicle. The design of the vehicle is a trade-off between a fixed-wing vehicle (airplane) and a rotary-wing vehicle (helicopter), thanks to this combination it offers a great versatility to face different kind of missions. The modeling is obtained through the Newton-Euler and Lagrange formulation. In terms of control, the convertible aircraft require specific algorithms to manipulate the take-off, the haver, the forward flight and the transition between both operation modes
Style APA, Harvard, Vancouver, ISO itp.
49

Auephanwiriyakul, Sansanee. "A study of linguistic pattern recognition and sensor fusion /". free to MU campus, to others for purchase, 2000. http://wwwlib.umi.com/cr/mo/fullcit?p9999270.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
50

Ho, Peter. "Organization in decentralized sensing". Thesis, University of Oxford, 1995. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.306873.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii