Dissertations / Theses on the topic 'Estimation basée sur la vision'

To see the other types of publications on this topic, follow the link: Estimation basée sur la vision.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estimation basée sur la vision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bellarbi, Abdelkader. "Vers l’immersion mobile en réalité augmentée : une approche basée sur le suivi robuste de cibles naturelles et sur l’interaction 3D." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLE005/document.

Full text
Abstract:
L’estimation de pose et l’interaction 3D sont les fondements de base d’un système de réalité augmentée (RA). L’objectif de cette thèse étant de traiter ces deux problématiques, nous présentons dans ce mémoire un état de l’art qui regroupe : approches, techniques et technologies relatives à l’estimation de pose et à l’interaction 3D en RA. Puis nous faisons le bilan sur les travaux menés jusqu'à aujourd’hui.A cet effet, nos contributions dans ce vaste domaine sont dans les deux parties : vision et interaction 3D. Nous avons proposé un nouveau détecteur et descripteur binaire nommé MOBIL qui effectue une comparaison binaire des moments géométriques. Par la suite nous avons proposé deux améliorations de notre descripteur. MOBIL_2B et POLAR_MOBIL.En outre, nous avons utilisé notre descripteur avec l’approche PTAM (Parallel Tracking and Mapping) afin d’assurer le recalage des objets virtuels en immersion mobile de l’utilisateur en RA.Nous avons également proposé une technique d’interaction pour la RA, appelée « Zoom-in » qui facilite la sélection et la manipulation des objets virtuels distants. Cette technique est basée sur le zoom de l’image et des objets virtuels recalé sur l’image. Les objets virtuels sont mis à la portée de l’utilisateur en gardant le recalage par rapport à la scène.Ce mémoire se termine par une conclusion générale qui fait le point sur l’essentiel de ce travail et ouvre de nouvelles perspectives
Pose estimation and 3D interaction are the essential basis for any Augmented Reality (AR) system. We aim to treat those two fields in order to offer a pertinent AR system that allows a mobile immersion and natural interaction. In this optic, this thesis provides an overall consistent state of the art in both pose estimation and 3D interaction for AR.In addition, this thesis details our contributions that consists of MOBIL: a binary descriptor that compares geometric moments of the patch through a binary test. Two improvements of this descriptor: MOBIL_2B and POLAR_MOBIL are proposed in order to enhance its robustness.We used this descriptor with PTAM technique to ensure the user pose estimation respectively for the selection/manipulation task and the navigation task.On the other hand, we proposed a novel 3D interaction technique called “Zoom-In”, designed for augmented reality applications. This technique is based on the zoom of the captured image. It calculates the 3D transformation relative to the selected object. This technique allows user selecting and manipulating distant virtual objects by bringing them within the user arm’s reach by zooming in the captured image, and re-estimating the user pose thanks to our proposed descriptor. Finally, we present a conclusion that describes the essential of this work and provide perspective and future work
APA, Harvard, Vancouver, ISO, and other styles
2

Silveira, Filho Geraldo. "Contributions aux méthodes directes d'estimation et de commande basées sur la vision." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005340.

Full text
Abstract:
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
APA, Harvard, Vancouver, ISO, and other styles
3

Liu, Shiyu. "Decentralized Control and Estimation of a Flying Parallel Robot Interacting with the Environment." Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0056.

Full text
Abstract:
La manipulation aérienne est un nouveau domaine où les drones multirotors sont équipés d'effecteurs pour la saisie, le transport et la manipulation des objets. Afin d'améliorer la capacité de charge et la manipulabilité dans l'espace 3D, un robot parallèle volant (FPR) a été proposé, dans lequel un certain nombre de drones sont utilisés pour soutenir collaborativement une architecture parallèle et passive.Dans cette thèse, les méthodes d'estimation et de contrôle considérant l'interaction avec l'environnement sont adressées et appliquées à un FPR spécifique composé d'une plateforme mobile et des jambes rigides attachées à des quadrirotors qui actionnent le système. La deuxième contribution de cette thèse est la proposition de stratégies décentralisées basées sur des mesures embarquées et intrinsèques des drones. Les expériences montrent l'efficacité des méthodes proposées pour la régulation de la configuration du robot, la réalisation des tâches de positionnement précis par téléopération et des interactions basées sur le contact. En outre, une analyse détaillée sur les torseurs admissibles du FPR est présentée, qui permet de calculer l'espace de torseur admissible (AWS) de la plateforme et de déterminer les configurations optimales des jambes maximisant la faisabilité de torseurs du robot en fonction des exigences spécifiques de la tâche
Aerial manipulation is an emerging domain where multirotor Unmanned Aerial Vehicles (UAVs) are equipped with onboard end-effectors for grasping, transporting and manipulating objects. To enhance the payload capacity and achieve full manipulability in 3-dimensional space, a flying parallel robot (FPR) was previously proposed in which a number of UAVs are used to collectively support a passive parallel architecture. In this thesis, the estimation and control methods dealing with the interaction with the environment are addressed, which are applied to a specific FPR composed of a moving platform and a number of rigid legs attached with quadrotors actuating the system. The second main contribution of this thesis is the proposal of decentralized strategies based on onboard and intrinsic measurements of the UAVs. Experiments show the effectiveness of the proposed methods in regulating the robot configuration, achieving precise positioning tasks through teleoperation and performing contact-based interactions with an object in the environment. In addition, a detailed analysis of the wrench feasibility of the FPR is presented, allowing to compute the Available Wrench Set (AWS) of the platform and determine the optimal leg configurations maximising the wrench feasibility of the robot accordingly to specific task requirements
APA, Harvard, Vancouver, ISO, and other styles
4

Revolon, Fabrice. "Une vision de la petite entreprise basée sur les ressources." Nancy 2, 1998. http://www.theses.fr/1998NAN22004.

Full text
Abstract:
La présente recherche s'inscrit dans le champs disciplinaire de la resource based view (RBV) et de l'entrepreneuriat. Elle cherche à mettre en évidence l'applicabilité d'une démarche stratégique fondée sur le primat des ressources en contexte de Très Petite Entreprise (TPE). La recherche doctorale s'articule autour de deux parties. La première est scindée en deux sous parties centrées sur la délimitation des concepts utilisés ainsi que sur le cadre d'analyse proposé. Cette dernière repose sur une triple analyse : une analyse cognitive pour sérier la vision stratégique de l'entrepreneur, une analyse d'activité (ABC) pour formaliser la structure de la TPE et une analyse fonctionnelle afin d'étudier les éléments constitutifs de la valeur apportée au client. La seconde partie a pour objet de tester le cadre théorique proposé. Elle est décomposée en deux sous parties : la première s'attache à justifier la méthodologie qualitative retenue (études de cas) et à présenter les 4 cas retenus. La deuxième sous partie fait la synthèse des résultats obtenus et tente de mettre en exergue la pertinence d'une approche de type RBV en contexte de TPE.
APA, Harvard, Vancouver, ISO, and other styles
5

Gueye, Cheikh Ahmadou Bamba. "Localisation géographique des hôtes dans l'Internet basée sur la multilatération." Paris 6, 2006. http://www.theses.fr/2006PA066367.

Full text
Abstract:
L'inférence de la localisation géographique d'hôtes dans l'Internet à partir uniquement de leur identifiant a vu son importance économique grandir ces dernières années. Elle permet l'émergence de nouvelles applications variées basées sur la localisation. La localisation physique d'un hôte se fait soit grâce à des mesures de délai, soit via l'association d'une localisation physique à un hôte ou un bloc d'hôtes. Dans cette thèse nous abordons le problème de la localisation basée sur des mesures de délai. Ces mesures de délai sont faites par des serveurs sondes vers un hôte cible et vers des hôtes références, qui sont des hôtes dont on connaît la localisation géographique. Jusqu'à présent, l'estimation de la localisation d'un hôte cible était fournie par la position géographique de l'hôte référence qui lui est le plus proche. Ainsi, le nombre d'endroits possibles où l'on peut localiser un hôte cible est égal au nombre d'hôtes références, conduisant à un espace discret de réponses. Dans cette thèse, nous proposons une nouvelle technique, CBG (Constraint-Based Geolocation), basée sur la multilatération. La multilatération permet d'obtenir un espace continu d'endroits possibles où l'on peut localiser un hôte cible. Pour ce faire, CBG transforme les mesures de délai en distance géographique estimée, et attribue une zone de confiance à chaque hôte localisé. Cela permet aux applications, qui utilisent CBG, d'évaluer la fiabilité de l'estimation par rapport à leurs exigences. Nous montrons également l'impact du délai de buffering (temps de traitement des paquets dans les routeurs) sur les mesures de délai et par conséquent sur la géolocalisation. En se basant sur l'outil traceroute, les résultats obtenus montrent qu'en tenant compte du buffering, avant de transformer les mesures de délai en distances géographiques estimées, nous améliorons la précision de l'estimation de localisation ainsi que la zone de confiance associée à chaque estimation. Pour réduire le nombre d'hôtes références nécessaire pour localiser un hôte cible, nous proposons une technique hybride qui utilise une base de données, contenant des préfixes d'adresses IP et leur localisation géographique, et des mesures de délai.
APA, Harvard, Vancouver, ISO, and other styles
6

Noce, Aurélien. "Vision et Reconstruction 3D basée sur la Texture: Application à la Robotique Médicale." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00339769.

Full text
Abstract:
Ces travaux mettent en place les bases d'une architecture de vision 3D pour un projet de plate-forme robotique de compensation de mouvements cardiaques, pour la chirurgie coronarienne mini-invasive à cœur battant. Les objectifs recherchés sont le suivi et la reconstruction en temps réel des mouvements du cœur, à partir des images fournies par une ou deux caméras. Une première contribution est la sélection d'un ensemble de descripteurs optimaux pour l'analyse de la texture du cœur, réalisée par des méthodes d'analyse statistique multidimensionnelle. Ce jeu de descripteurs est alors mis en œuvre dans un algorithme original de suivi hybride, qui utilise à la fois des informations issues de l'analyse de texture et de la mise en correspondance de motifs. Cet algorithme est évalué sur des images de synthèse ainsi que sur des images acquises in vivo grâce à une plate-forme d'acquisition haute fréquence développée pour l'occasion. Cette évaluation montre l'avantage de coupler l'information de motif avec l'information de texture au niveau de la robustesse du suivi vis-à-vis des déformations de l'organe. Nous proposons ensuite d'appliquer ces méthodes à la reconstruction 3D des mouvements du cœur par stéréo-vision. Cette méthode utilise l'analyse de texture afin d'améliorer le recalage des données entre les vues. Des résultats sont présentés sur des images expérimentales afin d'illustrer la méthode.
APA, Harvard, Vancouver, ISO, and other styles
7

Randrianasolo, Toky. "Inférence basée sur le plan pour l'estimation de petits domaines." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST0099.

Full text
Abstract:
La forte demande de résultats à un niveau géographique fin, notamment à partir d'enquêtes nationales, a mis en évidence la fragilité des estimations sur petits domaines. Cette thèse propose d'y remédier avec des méthodes spécifiques basées sur le plan de sondage. Celles-ci reposent sur la constructionde nouvelles pondérations pour chaque unité statistique. La première méthode consiste à optimiser le redressement du sous-échantillon d'une enquête inclusdans un domaine. La deuxième repose sur la construction de poids dépendant à la fois des unités statistiques et des domaines. Elle consiste à scinder les poids de sondage de l'estimateur global tout en respectant deux contraintes : 1/ la somme des estimations sur toute partition en domaines est égale à l'estimation globale ; 2/ le système de pondération pour un domaine particulier satisfait les propriétés de calage sur les variables auxiliaires connues pour le domaine. L'estimateur par scission ainsi obtenu se comporte de manière quasi analogue au célèbre estimateur blup (meilleur prédicteur linéaire sans biais). La troisième méthode propose une réécriture de l'estimateur blup sous la forme d'un estimateur linéaire homogène, en adoptant une approche basée sur le plan de sondage, bien que l'estimateur dépende d'un modèle. De nouveaux estimateurs blup modifiés sont obtenus. Leur précision, estimée par simulation avec application sur des données réelles, est assez proche de celle de l'estimateur blup standard. Les méthodes développées dans cette thèse sont ensuite appliquées à l'estimation d'indicateurs de la mobilité locale à partir de l'Enquête Nationale sur les Transports et les Déplacements 2007-2008. Lorsque la taille d'un domaine est faible dans l'échantillon, les estimations obtenues avec la première méthode perdent en précision, alors que la précision reste satisfaisante pour les deux autres méthodes
The strong demand for results at a detailed geographic level, particularly from national surveys, has raised the problem of the fragility of estimates for small areas. This thesis addresses this issue with specific methods based on the sample design. These ones consist of building new weights for each statistical unit. The first method consists of optimizing the re-weighting of a subsample survey included in an area. The second one is based on the construction of weights that depend on the statistical units as well as the areas. It consists of splitting the sampling weights of the overall estimator while satisfying two constraints : 1/ the sum of the estimates on every partition into areas is equal to the overall estimate ; 2/ the system of weights for a given area satisfies calibration properties on known auxiliary variables at the level of the area. The split estimator thus obtained behaves almost similarly as the well-known blup (best linear unbiased predictor) estimator. The third method proposes a rewriting of the blup estimator, although model-based, in the form of a homogenous linear estimator from a design-based approach. New modified blup estimators are obtained. Their precision, estimated by simulation with an application to real data, is quite close to that of the standard blup estimator. Then, the methods developed in this thesis are applied to the estimation of local mobility indicators from the 2007-2008 French National Travel Survey. When the size of an area is small in the sample, the estimates obtained with the first method are not precise enough whereas the precision remains satisfactory for the two other methods
APA, Harvard, Vancouver, ISO, and other styles
8

Verney, Philippe. "Interprétation géologique de données sismiques par une méthode supervisée basée sur la vision cognitive." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005861.

Full text
Abstract:
L'objectif de ce travail est de réaliser une nouvelle plateforme d'interprétation sismique 3D semi-automatique basée sur la connaissance géologique employée aujourd'hui par les experts du domaine. A l'heure actuelle, la majeure partie des solutions sont basées sur les traitements d'image et l'utilisation de quantités d'attributs sismiques. Elles fournissent un résultat interprétable par un expert qui réalise alors une correspondance informelle entre la nouvelle image obtenue et des objets géologiques. Nous désirons explorer une nouvelle méthodologie mettant en avant la formalisation de la connaissance utilisée dans l'interprétation sismique comme la vision cognitive le permet et le conseille. Ainsi, nous caractérisons le résultat des traitements d'images opérés sur le bloc sismique grâce à des concepts et à relations visuelles provenant d'une ontologie dédiée. Ces caractéristiques nous permettent alors de formaliser l'interprétation d'objets géologiques à partir de ces instances et ainsi de proposer de manière automatique des solutions d'interprétation d'un bloc sismique, que l'expert pourra choisir de valider. Dans ce travail, nous avons à coeur de nous concentrer sur l'identification de deux premiers objets géologiques à identifier dans une image sismique : les horizons et les failles. Une ontologie de ce domaine d'étude est proposée afin de servir de base pour la création de la plateforme.
APA, Harvard, Vancouver, ISO, and other styles
9

Zhang, Yiqun. "Contribution à l'étude de la vision dynamique : une approche basée sur la géométrie projective." Compiègne, 1993. http://www.theses.fr/1993COMPD650.

Full text
Abstract:
Le travail de cette thèse s'inscrit dans le cadre de la vision 3D et se consacre plus spécialement à la reconstitution de scènes à partir d'une séquence d'images monoculaires saisie par une caméra en mouvement. Il s'agit de reconstruire les éléments 3D du type segments de droite d'une scène en utilisant la connaissance du mouvement de la caméra. L'étude a été faite dans le contexte de la géométrie projective, ce qui a permis, dans le cas d'une translation, le développement d'une approche basée sur le principe de dualité projective. L'idée consiste à résoudre le problème en trois phases séquentielles : - Diviser les droites de la scène en groupes de droites parallèles via un groupement correspondant de leurs images et déterminer la direction de chaque groupe. - Reconstruire les droites groupe par groupe. - Retrouver les segments portés par chacune des droites reconstruites. Dans l'optique de la dualité projective, chacune des deux premières phases revient à représenter les primitives 2D, droites support des segments extraits des images, par des points dans un plan projectif et a mettre en évidence de l'alignement des points qui correspond a un groupe de droites parallèles pour la première phase ou a une seule droite de la scène pour la seconde. Un ensemble d'algorithmes dont le principe se fond essentiellement sur la transformation de Hough a été développé pour réaliser les trois phases. Cette approche privilégie le traitement de longues et denses séquences d'images. Des résultats expérimentaux ont été présentés en vue de montrer sa performance.
APA, Harvard, Vancouver, ISO, and other styles
10

Ould, Aboubecrine Mohamed Mahmoud. "Sur l'estimation basée sur les records et la caractérisation des populations." Le Havre, 2011. http://www.theses.fr/2011LEHA0004.

Full text
Abstract:
Dans la première partie de ce travail, nous considérons un nombre k-valeurs records d'une suite de variables aléatoires indépendantes et identiquement distribuées de fonction de répartition F, notre but est de prédire les futures k-valeurs sous des hypothèses adéquates sur la queue de F. Dans la deuxième partie, nous considérons deux populations de tailles finies et étudions leurs caractérisations en utilisant la régression des statistiques d'ordre sur un tirage sans remise. Nous donnons également quelques résultats asymptotiques lorsque la taille de la population tend vers l'infini
In the first part of this work, we consider a number of k-record values from independent and identically distributed random variables with a continuous distribution function F, ou aim is to predict future k-record values under suitable assumptions on the tail of F. In the second part, we consider finite populations and investigate their characterization by regressions of order statistics under sampling without replacement. We also give some asymptotic results when the size of the population goes to infinity
APA, Harvard, Vancouver, ISO, and other styles
11

Fakhri, Myriam. "PAX : une vision des processus métier basée sur la co-ingénierie de compositions de services." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4379.

Full text
Abstract:
Cette thèse aborde la composition de services à un niveau « métier » : un processus métier est vu comme une composition de services permettant de réaliser un objectif en tenant compte d’informations contextuelles sur l’environnement. En outre, dans ces travaux de recherche, l’idée de rendre persistante les compositions est développée à des fins de réutilisation et de partage.L’approche PAX propose des modèles de spécification de compositions avec différents niveaux d’abstraction. Au niveau intentionnel, une composition de services est vue comme une composition de buts métier. À un niveau orchestré, une composition de services est spécifiée comme un processus métier dont les activités sont abstraites. À un niveau exécutable, une composition de services est un processus métier pour lequel les activités sont réalisées par des services identifiés. À un niveau trace, une compose de services est vue comme la trace de l’exécution d’un processus métier mis en œuvre par invocation de services.L’approche PAX fournit aussi une démarche flexible et de type co-ingénierie pour la définition de processus métier satisfaisant un besoin métier et basée sur la réutilisation de services et de composition de services. La démarche proposée est flexible dans la mesure où la réalisation de certaines activités est dépendante du contexte de mise en œuvre de l’approche PAX. La démarche est de type co-ingénierie : elle suggère de faire participer les acteurs métier à la conception d’un processus, i.e. d’une composition de services, pendant son exécution. La démarche de type co-ingénierie assure l’alignement entre le besoin métier et le processus permettant de le satisfaire
This research work deals with the services compositions at a business level: a business process is seen as a composition of services to achieve an objective, taking into account contextual information on the environment. Also, in this research, the idea of considering the compositions as a persistent artefact is developed for reuse and sharing purposes.The PAχ approach offers models of compositions in order to specify compositions at different levels of abstraction. At the intentional level, a composition of services is seen as a composition of business goals. At the orchestrated level, a composition of services is specified as a business process in which some activities and operations are abstract. At the executable level, a composition of services is a business process in which the activities are carried out by identified services. At the trace level, a composition of services is seen as the trace of the execution of a business process implemented by invocation of services. The PAχ approach provides a flexible approach based on co-engineering paradigm for defining business processes which satisfies a business need and based on the reuse of services and composition of services. The proposed approach is flexible because the realization of activities depends of the context in which the PAχ approach is deployed. The approach is based on co-engineering paradigm: it suggests involving business actors to design a process, i.e. a composition of services during execution. Co-engineering improves alignment between business needs and processes to satisfy these needs
APA, Harvard, Vancouver, ISO, and other styles
12

Benzougar, Abdeljabar. "Perception de la profondeur en stéréovision monoculaire par exploitation du flou optique : approche basée sur les moments spatiaux." Poitiers, 1997. http://www.theses.fr/1997POIT2301.

Full text
Abstract:
Nous proposons une nouvelle methode de stereovision monoculaire par exploitation du flou optique. L'objectif de cette methode est le calcul de la carte des profondeurs d'une scene reelle par la mesure du flou optique existant sur les objets qui constituent cette scene. La mesure que nous proposons est basee sur la technique des moments spatiaux. Le moment spatial monodimensionnel d'ordre deux est estime sur la derivee de l'image floue, dans la direction du gradient. Cette estimation se decompose alors en deux composantes. Une premiere composante est liee au profil de l'image nette, la seconde est le moment d'ordre deux de la reponse impulsionnelle du systeme optique. La methode proposee ne requiert aucune modelisation ni de la reponse impulsionnelle ni du profile de luminance de l'image nette. Le systeme de stereovision developpe utilise deux images floues de la meme scene, acquises avec deux ouvertures differentes. Les resultats experimentaux montrent que, non seulement la faisabilite d'une mesure de la profondeur par une approche exploitant le flou optique est effective, mais que les performances obtenues sont comparables a celles obtenues par d'autres methodes.
APA, Harvard, Vancouver, ISO, and other styles
13

Colliez, Johan. "Estimation robuste du mouvement dans les séquences d'images basée sur la régression par vecteurs supports." Littoral, 2009. http://www.theses.fr/2009DUNK0231.

Full text
Abstract:
L’une des tâches principales de la vision dynamique par ordinateur consiste à extraire l’information pertinente provenant d’une séquence d’images en utilisant la théorie de la régression et d’ajustement du modèle. Toutefois, la présence de bruit et de points aberrants « outliers » a pour effet d’altérer la tâche d’estimation de la structure du modèle sous-jacent. D’où la nécessité d’employer des estimateurs robustes face aux erreurs inhérentes aux images de scènes naturelles. Dans ce travail, nous proposons un nouvel estimateur robuste basé sur les machines à vecteurs supports. Cet estimateur est une version pondérée de la régression par vecteurs supports. Il assigne une pénalisation hétérogène aux observations selon leur appartenance à la classe « inliers » ou à la classe « outliers ». Des pénalisations « hards » et « softs » ont été considérées et une approche itérative a été appliquée afin d’extraire la structure dominante dans l’ensemble des données. Les nombreux tests simulés indique que l’estimateur robuste par vecteurs supports proposé possède un point de cassure supérieur à 50% améliorant ainsi nettement les performances de la régression par vecteurs supports standard. De plus, il permet d’extraire la structure dominante dans l’ensemble des données avec une bonne résistance face aux structures résiduelles. L’approche de régression robuste a été appliquée à l’estimation du mouvement dans une séquence d’images par flot optique aussi bien que par mise en correspondance
One of the main tasks in computer vision is to extract the relevant information from an images sequence by using the regression and model adjustment theory. However, the presence of noise and ouliers has the effect of altering the task of estimating the structure of the underlying model. Hence, the need of using robust estimators against the errors inherent to natural scenes images. In this work, we propose a new robust estimator based on support vectors machines. This estimator is a weighted version of regression by support vectors. It assigns a heterogeneous penality to observations according that they belong to inliers or outliers classes. Hard and soft penalisations were considered and an iterative approach was applied to extract the dominant structure in the data set. The many simulated sets indicate that the proposed robust estimator by support vectors has a breakdown point above 50% imroving significantly the performance of the standard regression by support vector. Moreover, it permits to extract the dominant structure in the data set with a high resistance to residual structures. The robust regression approach was applied to estimate the movement in images sequence by optic flow as well as by images matching
APA, Harvard, Vancouver, ISO, and other styles
14

Dugas, Olivier. "Localisation relative à six degrés de liberté basée sur les angles et sur le filtrage probabiliste." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25607.

Full text
Abstract:
Lorsque des robots travaillent en équipe, il est avantageux de permettre à ceux-ci de se localiser mutuellement pour faire, par exemple, de la navigation en formation. La résolution de la localisation relative est d'une importance particulière pour des équipes de robots aériens ou sous-marins lorsque ceux-ci opèrent dans des environnements dépourvus de points de repère. Ce problème se complexifie davantage lorsque le système de localisation permet seulement l'utilisation de caméras légères et bon marché. Cette étude présente une solution analytique au problème de localisation relative à six degrés de liberté basée sur des mesures d'angle. Cette solution est intégrée à des filtres probabilistes pour augmenter sa précision. En utilisant deux robots mutuellement observables possédant chacun deux marqueurs et une caméra colinéaires, nous pouvons retrouver les transformations qui expriment la pose du premier dans le référentiel du second. Notre technique se distingue du fait qu'elle nécessite uniquement la mesure de deux paires d'angles, au lieu d'un mélange de mesures d'angles et de distances. La précision des résultats est vérifiée par des simulations ainsi que par des expérimentations concrètes. Suite à des expérimentations à des distances variant entre 3:0 m et 15:0 m, nous montrons que la position relative est estimée avec moins de 0:5 % d'erreur et que l'erreur moyenne sur l'orientation relative est maintenue sous 2:2 deg. Une généralisation approximative est formulée et simulée pour le cas où la caméra de chaque robot n'est pas colinéaire avec les marqueurs de celui-ci. Au-delà de la précision des caméras, nous montrons qu'un filtre non parfumé de Kalman permet d'adoucir l'erreur sur les estimations de la position relative, et qu'un filtre étendu de Kalman basé sur les quaternions peut faire de même pour l'orientation relative. Cela rend notre solution particulièrement adaptée pour le déploiement de flottes de robots à six degrés de liberté comme des dirigeables.
When a team of robots have to collaborate, it is useful to allow them to localize each other in order to maintain flight formations, for example. The solution of cooperative localization is of particular importance to teams of aerial or underwater robots operating in areas devoid of landmarks. The problem becomes harder if the localization system must be low-cost and lightweight enough that only consumer-grade cameras can be used. This paper presents an analytical solution to the six degrees of freedom cooperative localization problem using bearing only measurements. Probabilistic filters are integrated to this solution to increase it's accuracy. Given two mutually observing robots, each one equipped with a camera and two markers, and given that they each take a picture at the same moment, we can recover the coordinate transformation that expresses the pose of one robot in the frame of reference of the other. The novelty of our approach is the use of two pairs of bearing measurements for the pose estimation instead of using both bearing and range measurements. The accuracy of the results is verified in extensive simulations and in experiments with real hardware. In experiments at distances between 3:0 m and 15:0 m, we show that the relative position is estimated with less than 0:5 % error and that the mean orientation error is kept below 2:2 deg. An approximate generalization is formulated and simulated for the case where each robot's camera is not colinear with the same robot's markers. Passed the precision limit of the cameras, we show that an unscented Kalman filter can soften the error on the relative position estimations, and that an quaternion-based extended Kalman filter can do the same to the error on the relative orientation estimations. This makes our solution particularly well suited for deployment on fleets of inexpensive robots moving in 6 DoF such as blimps.
APA, Harvard, Vancouver, ISO, and other styles
15

Dame, A. "Méthode unifiée de suivi et d'asservissement visuels basée sur l'information mutuelle." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00558196.

Full text
Abstract:
Dans cette thèse, nous traitons les problèmes d'asservissement et de suivi visuel, qui sont essentiels dans le domaine de la vision robotique. Leur robustesse ainsi que leur précision deviennent des enjeux majeurs. Les techniques classiques sont principalement basées sur l'observation de primitives géométriques dans l'image. Ces primitives ne prennent néanmoins pas compte de toute l'information présente dans les images. C'est pour cette raison que de nouvelles approches, dites approches directes, ont vu le jour. Un inconvénient des méthodes directes actuelles vient du fait qu'elles sont centrées sur l'observation des intensités lumineuses des images qui sont fortement sensibles aux changements d'apparence qui peuvent survenir, par exemple, lors de modification de l'illumination ou occultation. Ceci a pour effet de rendre l'application de ces techniques limitée à des conditions nominales d'utilisation. Pour régler ce problème, nous proposons une solution qui n'est plus directement basée sur les intensités lumineuses mais sur l'information contenue dans les images. Nous montrons que la maximisation de cette information permet de créer une solution unifiée pour résoudre des tâches de suivi et d'asservissement visuel. De nombreuses expériences de suivi valident la robustesse et la précision de la technique proposée dans des applications variées en passant par le suivi de visages, la localisation, la construction de mosaïques et la réalité augmentée. La méthode d'asservissement visuel reposant sur l'information mutuelle est également validée à l'aide d'une plateforme contenant un robot cartésien à six degrés de liberté ainsi qu'un véhicule autonome non-holonome.
APA, Harvard, Vancouver, ISO, and other styles
16

Poulin, Pierre. "Modèles physiques pour la résolution de problèmes en vision artificielle une approche basée sur la topologie algébrique calculatoire." Mémoire, Université de Sherbrooke, 2002. http://savoirs.usherbrooke.ca/handle/11143/4558.

Full text
Abstract:
L'approche classique pour résoudre des problèmes en vision artificielle consiste à énoncer ces problèmes sous une forme variationnelle et à obtenir des équations aux dérivées partielles (EDPs) auxquelles ils doivent satisfaire dans leur ensemble. Ces équations sont ensuite résolues en utilisant divers schémas numériques généralement itératifs et ce, souvent sans se soucier si les solutions intermédiaires itératives enfreignent les lois physiques de base. Par conséquent, les solutions intermédiaires ne peuvent être interprétées physiquement. Cependant, une telle interprétation peut permettre d'augmenter la vitesse de convergence des algorithmes numériques utilisés pour résoudre les EDPs. Dans ce mémoire, nous avons étudié trois problèmes dans lesquels cette situation peut se produire: la diffusion linéaire, le calcul du flot optique et la déformation de courbes. Nous avons développé des algorithmes qui utilisent directement les lois de base dans le processus de résolution. Ces lois de base sont encodées en utilisant un modèle image basé sur la topologie algébrique calculatoire dont nous montrons l'intérêt pour la représentation et la résolution de problèmes en vision artificielle. Finalement, des résultats expérimentaux pour les trois problèmes sont présentés afin de valider l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
17

Bouazza, Kheir-Eddine. "Commande basée sur des observateurs pour les systèmes non-linéaires en temps discret." Nancy 1, 2004. http://www.theses.fr/2004NAN10171.

Full text
Abstract:
Les travaux de recherche qui ont été menés lors de cette thèse portent sur la stabilisation, par des commandes basées sur des observateurs, des systèmes non-linéaires en temps discret. L'approche que nous avons proposée a l'avantage de ne pas imposer une structure particulière à la sortie du système, contrairement aux méthodes qui se basent sur la théorie de la passivité. A la différence de la méthode jurdjevic-quinn, elle n'exige pas la stabilité de la dynamique libre tout en utilisant une fonction de lyapunov standard et commune à plusieurs systèmes pour l'analyse de la stabilité. Utilisant les résultats établis précédemment, la synthèse d'une loi de commande basée sur l'observateur de kalman étendu a été abordée. La troisième partie, présente une loi de commande basée sur un observateur qui stabilise globalement exponentiellement une classe de systèmes non linéaires. Dans la derniere partie, nous avons presente des conditions sous forme d'inégalites matricielles linéaires assez simple a vérifier, permettant de stabiliser asymptotiquement une large classe de systemes non-lineaires avec retard. D'autres conditions, permettant de générer des observateurs pour différentes classes de systemes non lineaires avec retard, ont été présentées
Research activities presented in this thesis concerne the stabilisation, with obserber-based controllers, of discrete-time nonlinear systems. The approach which we proposed doesn't require a particular structure of the output contrary to the methods based on the the passivity theory. Unlike the jurdjevic-quinn method, it doesn't need the stability of the free dynamics. A lyapunov function common to a great number of systems is used for the analysis of stability. Moreover it has the advantage of being simply implementable. Using the results established previously, synthesis of a control law based on an extended kalman observer was given. The third section presents an observer based controller which stabilizes globally exponentially a class of nonlinear systems. An extension to delay systems was established. In the last section, we present a simple conditions in linear matrix inequalities form, which stbilizes asymptotically a large class of delay nonlinear systems. Some other conditions allowing the synthesis of observers for different classes of nonlinear systems were presented
APA, Harvard, Vancouver, ISO, and other styles
18

Xu, Hao. "Estimation statistique d'atlas probabiliste avec les données multimodales et son application à la segmentation basée sur l'atlas." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-00969176.

Full text
Abstract:
Les atlases d'anatomie informatisé jouent un rôle important dans l'analyse d'images médicales. Cependant un atlas se réfère généralement à une image standard ou une moyenne d'image aussi appelé template, qui probablement représente bien d'une population observée, il ne suffit pas pour caractériser la population observée en détail. Un template doit être apprises conjointement avec la variabilité géométrique des formes représentées dans les observations. Ces deux quantités seront par la suite former l'atlas de la population correspondante. La variabilité géométrique est modélisée comme des déformations du template de sorte qu'il s'adapte aux observations. Dans la première partie du travail, nous fournissons un nouveau modèle statistique générative basée sur des templates déformables denses qui représente plusieurs types de tissus observés dans les images médicales. Notre atlas contient à la fois une estimation des templates probabiliste de chaque tissu (appelée classes) et la métrique de déformation. Nous utilisons un algorithme stochastique pour l'estimation de l'atlas probabilistes donné un ensemble de données. Cet atlas est ensuite utilisé pour la méthode de segmentation basée sur l'atlas pour segmenter les nouvelles images. Expériences sont montrées sur les images T1 du cerveau. Les analyses traditionnelles d'imagerie de résonance magnétique fonctionnelle utilisent peu d'informations anatomies. Le recalage des images vers un template est basé sur l'anatomie individuelle et ne tient pas compte des informations fonctionnelles, donc les activations détectées ne se limitent pas à la matière grise. Dans la deuxième partie du travail, on propose un modèle statistique pour estimer un atlas probabiliste de l'IRM fonctionnelle et T1 qui résume à la fois des informations anatomies et fonctionnelles et la variabilité géométrique de la population. Le recalage et la segmentation sont effectuées conjointement pendant l'estimation de l'atlas et l'activité fonctionnelle est limitée à la matière grise, augmenter la précision de l'atlas. Inférer l'abondance des protéines de l'intensité de peptides est l'étape clé dans la protéomique quantitative. La conclusion est nécessairement plus précis quand de nombreux peptides sont pris en compte pour une protéine donnée. Pourtant, l'information apportée par les peptides partagées par différentes protéines est souvent jeté. Dans la troisième partie du travail, nous proposons un système statistique basée sur une modèle hiérarchique à inclure cette information. Notre méthodologie, basée sur une analyse simultanée de tous les peptides quantifiés, gère les erreurs biologiques et techniques ainsi que l'effet des peptides. En outre, nous proposons une mise en œuvre pratique adapté à l'analyse de grandes bases de données. Par rapport à une méthode basée sur l'analyse d'une protéine à la fois (ce qui ne comprend pas les peptides partagés), notre méthodologie s'est révélée être beaucoup plus fiable pour estimer l'abondance de protéines et de tester les changements d'abondance.
APA, Harvard, Vancouver, ISO, and other styles
19

Bodo, Yann. "Élaboration d'une technique de tatouage vidéo basée sur la perturbation des vecteurs de mouvement." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000917.

Full text
Abstract:
L'essor du multimédia et des supports numériques, qui permettent l'obtention d'une copie parfaite, conduise de plus en plus les fournisseurs de contenus à se poser le problème du piratage des données. La protection et le tatouage des media numériques sont rapidement devenus un axe majeur de recherche dans le domaine du traitement d'images. La problématique que nous posons dans cette thèse est de proposer une solution globale de protection des contenus vidéo. Pour ce faire, nous proposons deux approches fondées sur une perturbation des vecteurs de mouvement. La première consiste à se servir des vecteurs de mouvement pour embrouiller une séquence. La seconde, quant à elle, utilise aussi les vecteurs de mouvement afin d'insérer une marque invisible et robuste. Ces deux solutions peuvent être ainsi combinée afin de former un système de protection globale d'une vidéo. Nous proposons dans le chapitre 1, un état de l'art sur les techniques d'embrouillage et les motivations amenant à développer de tels systèmes. Dans le chapitre 2, nous présentons les principes généraux du tatouage ainsi qu'un aperçu des principales techniques utilisées en tatouage vidéo. Ensuite, nous poursuivons au chapitre 3 sur la présentation d'une solution d'embrouillage, basée sur la perturbation des vecteurs de mouvement d'un flux vidéo compressé suivant la norme MPEG4. Nous poursuivons ensuite sur l'élaboration d'un algorithme de tatouage dans le domaine non compressé, basé sur la perturbation locale des vecteurs de mouvement, au sein de la vidéo. Dans le chapitre 4, nous examinons la problématique de l'invisibilité de notre approche, en relation avec les problèmes soulevés au chapitre précédent. Dans cette optique, nous présentons un état de l'art sur les caractéristiques du système visuel humain, pour poursuivre sur un exposé des principales métriques utilisées en vidéo. Nous proposons en fin de chapitre les algorithmes que nous avons mis en place, permettant de minimiser l'impact visuel de notre système de tatouage. Enfin, dans le chapitre 5 nous concluons sur notre approche, et présentons les différentes perspectives d'évolution de notre algorithme.
APA, Harvard, Vancouver, ISO, and other styles
20

Sidibe, Ibrahima dit Bouran. "Analyse non-paramétrique des politiques de maintenance basée sur des données des durées de vie hétérogènes." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0081/document.

Full text
Abstract:
Dans la littérature, plusieurs travaux ont été développés autour de la modélisation, l’analyse et la mise en place de politiques de maintenance pour les équipements sujets à des défaillances aléatoires. Ces travaux occultent souvent les réalités industrielles par des hypothèses telles que la connaissance a priori des distributions paramétriques des durées de vie et l’homogénéité des conditions d’exploitation des équipements. Ces hypothèses sont restrictives et constituent une source de biais parce qu’elles conditionnent l’analyse statistique des politiques de maintenance. Dans ce présent travail de thèse, de telles hypothèses sont relaxées pour permettre la prise en compte et la mise en valeurs des informations dérivant directement des données de durées vie issues de l’exploitation de l’équipement et ce sans passer par un modèle paramétrique intermédiaire. L’objectif de ce travail de thèse consiste alors en le développement de modèles statistiques et d’outils efficaces pour l’analyse des politiques de maintenance basées sur les données de durées de vie hétérogènes. Nous proposons en effet une démarche complète d’analyse de stratégies de maintenance en partant des données de durées de vie jusqu’à l’obtention des politiques optimales de maintenance en passant par une phase d’estimation des lois de probabilité. Les politiques de maintenance considérées sont appliques à des équipements usagés évoluant dans des environnements d’exploitation distingués par leur niveau de sévérité. Dans ce contexte, un modèle mathématique est proposé permettant d’évaluer et d’analyser théoriquement les coûts unitaires d’une stratégie de maintenance particulière dite de type âge. Cette analyse a permis d’établir les conditions nécessaires et suffisantes garantissant un âge optimal de remplacement préventif de l’équipement. Les coûts unitaires de maintenance sont complètement estimés par la méthode du Noyau de Parzen. Cette méthode d’estimation est non-paramétrique et définie par une fonction noyau et un paramètre de lissage. Il est également montré, dans nos travaux de recherche, que cet estimateur garantit une faible propagation des erreurs induites par le paramètre de lissage. Les résultats obtenus par la méthode du Noyau de Parzen sont proches des valeurs théoriques avec un faible coefficient de variation. Des extensions de la première politique de maintenance sont également proposées et étudiées. Ce travail de thèse s’achève par la proposition d’une approche permettant de mesurer et d’analyser le risque induit par le report d’une maintenance préventive. Ce risque est analysé à travers une fonction risque proposée
In the reliability literature, several researches works have been developed to deal with modeling, analysis and implementation of maintenance policies for equipments subject to random failures. The majority of these works are based on common assumptions among which the distribution function of the equipment lifetimes is assumed to be known. Furthermore, the equipment is assumed to experience only one operating environment. Such assumptions are indeed restrictive and may introduce a bias in the statistical analysis of the distribution function of the equipment lifetimes which in turn impacts optimization of maintenance policies. In the present research work, these two particular assumptions are relaxed. This relaxation allows to take into account of information related to conditions where the equipment is being operating and to focus on the statistical analysis of maintenance policies without using an intermediate parametric lifetimes distribution. The objective of this thesis consists then on the development of efficient statistical models and tools for managing the maintenance of equipments whose lifetimes distribution is unknown and defined through the heterogeneous lifetimes data. Indeed, this thesis proposes a framework for maintenance strategies determination, from lifetimes data acquisition toward the computation of optimal maintenance policies. The maintenance policies considered are assumed to be performed on used equipments. These later are conduct to experience their missions within different environments each of which is characterized by a degree of severity. In this context, a first mathematical model is proposed to evaluate costs induced by maintenance strategies. The analysis of these costs helps to establish the necessary and sufficient conditions to ensure the existence of an optimal age to perform the preventive maintenance. The maintenance costs are fully estimated by using the Kernel method. This estimation method is non-parametric and defined by two parameters, namely the kernel function and the smoothing parameter. The variability of maintenance costs estimator is deeply analyzed according to the smoothing parameter of Kernel method. From these analyses, it is shown that Kernel estimator method ensures a weak propagation of the errors due to the computation of smoothing parameter. In addition, several simulations are made to estimate the optimal replacement age. These simulations figure out that the numerical results from the Kernel method are close to the theoretical values with a weak coefficient of variation. Two probabilistic extensions of the first mathematical model are proposed and theoretically discussed. To deal with the problem of delayed preventive maintenance, an approach is proposed and discussed. The proposed approach allows evaluating the risk that could induce the delay taken to perform a preventive maintenance at the required optimal date. This approach is based on risk analysis conduct on the basis of a proposed risk function
APA, Harvard, Vancouver, ISO, and other styles
21

El, Jabri Mohammed. "Etude de l'organisation spatiale du tissu conjonctif par analyse d'images basée sur une approche multiéchelles." Phd thesis, Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21831.

Full text
Abstract:
L'objectif de ce travail est de caractériser le tissu musculaire en évaluant sa qualité à partir de données d'imagerie. Plus précisement, on se propose de développer des outils de prédiction de la tendreté de la viande bovine, basés sur le processus de vision artificielle, en étudiant le tissu conjonctif intramusculaire qui contribue de manière significative à la dureté intrinsèque de la viande. Les images des coupes de muscles, ont été acquises avec deux types d'éclairage : lumière blanche polarisée et ultraviolet. Notre contribution pour analyser ces images est basée sur une approche multiéchelle. Deux méthodes de segmentation ont été proposées, elles sont basées sur la transformée en ondelettes discrète, notamment l'algorithme "à trous". La première repose sur le seuillage universel et la seconde sur l'algorithme de K-moyennes appliqué à l'image résultante d'une sommation sur les plans d'ondelettes. Un autre volet de ce travail concerne l'extraction des paramètres et la décision. L'information retenue est la distribution des tailles d'objets éléments de la trame conjonctive de viande. Les outils statistiques que sont la régression linéaire et les réseaux de neurones ont été appliqués aux données issues des étapes de traitement des images. Le modèle final qui a été retenu pour la prévision de la tendreté a été déterminé selon un critère de maximisation du R2. Le choix du nombre de paramètres a été basé sur un critère de validation croisée (Leave one out). Les résultats de prédiction, issus de la base de données d'étude, sont très encourageants, mettant en évidence une corrélation certaine entre les paramètres d'images et la qualité sensorielle de la viande en particulier la tendreté
APA, Harvard, Vancouver, ISO, and other styles
22

Tchekiken, El Hadi. "Estimation de l'orientation 3D du cœur : une approche basée sur l'analyse de la structure spatio-temporelle de l'électrocardiogramme orthogonal." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0008.

Full text
Abstract:
Notre travail porte sur l'estimation de l'orientation 3D du coeur à partir de l'électrocardiogramme (ECO) orthogonal. L'objectif à terme est de réaliser une synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG pour la détection en série d'images échocardiographiques bidimensionnelles analysables en routine hospitalière. En effet, durant l'effort, le cœur est animé d'un mouvement pendulaire rendant contraignant l'examen échocardiographique. Nous proposons d'abord une méthode pour déterminer la position des boucles spatio-temporelle QRS et T successives dans un référentiel électrique lié aux axes anatomiques du sujet. Ceci nous conduit à déterminer trois axes principaux d'inertie pour chaque boucle ECG. Nous abordons ensuite l'étude de la reproductibilité spatiale et structurelle de ces boucles ECG en fonction de la respiration, de la posture et de l'effort. Les résultats obtenus confirment la reproductibilité (spatiale et structurelle) battement à battement des ECGs et mettent en évidence une corrélation entre la position anatomique du cœur et la position spatiale des boucles. Partant de l'hypothèse selon laquelle la structure spatio-temporelle de l'ECG est liée au système «cœur», nous développons une méthode permettant, à partir des boucles ECG, d'estimer l'orientation 'd'un axe anatomique du cœur. Nous proposons alors deux méthodes d'imagerie pour comparer les positions anatomiques et électriques du grand axe du VO. La première méthode est basée sur le repérage 3D de plans de coupes écho graphiques des quatre cavités, et la deuxième sur 1' imagerie par résonance magnétique tridimensionnelle (IRM 3D) du thorax et du cœur. Les résultats obtenus montrent qu'il existe une corrélation certaine entre les positions anatomiques et ~ électriques du cœur. De plus, il est possible d'estimer des changements de position du cœur d'un battement à l'autre, ce qui permet d'envisager une technique de synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG
This work is about the estimation of the 3D orientation of the heart from the orthogonal electrocardiogram. The long term objective is to perform a spatio-temporal ECG-gated echocardiography technique for the acquisition of serial, but comparable images during a stress echocardiography test. We first propose a method for the determination of the position of the successive spatio-temporal QRS and T loops with reference to the body coordinates system. We determine the inertia axes which define a new coordinates system closely related to the loop's preferential space. We then study the spatial and the structural reproducibility of the ECG loops for body posture, respiration and stress. The obtained results have confirmed the beat-to-beat reproducibility and evidenced the correlation between the position of the heart and the spatial position of the ECG loops. Starting from the hypothesis that the QRS and T loops are tied to the heart, we have developed a method to estimate the orientation of any anatomic axis of the heart. For the evaluation, we proposed two approaches which allow the confrontation of the electric and the anatomic positions of the heart. The first approach is based on the spatial determination of echocardiographic planes of the four chambers and the second one on the 3D MRI of the thorax and the heart. The results show that there is a correlation between electric and anatomic positions of the heart. In this work, we also evidenced that our method is suitable for the estimation of the changes of the beat-to-beat orientation of the heart. Hence, we can consider the development of a spatio-temporal ECG-gated echocardiography technique
APA, Harvard, Vancouver, ISO, and other styles
23

Du, Jun. "Estimation de l'épaisseur des coulées de lave sur la Lune et le Mercure basée sur la modélisation de la dégradation topographique de cratères d’impact." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4099.

Full text
Abstract:
Dans cette étude, les cratères partiellement enterrés dans la maria lunaire et dans les plaines lisses septentrionales de Mercure ont été identifiés à l'aide de données récemment acquises concernant l'optique, l'élévation et la composition, et les épaisseurs de coulées de lave proches des cratères partiellement enterrés ont été estimées par modélisation numérique de leur dégradation topographique. Au chapitre 1, je présente d'abord le contexte géologique des plaines volcaniques de la Lune et de Mercure. Ensuite, je vais résumer toutes les méthodes qui ont été utilisées pour estimer l’épaisseur des coulées de lave sur la Lune et Mercure, ainsi que les progrès de la recherche sur la dégradation topographique du cratère. Au chapitre 2, je présente les ensembles de données de télédétection utilisés dans cette étude. Ensuite, les critères utilisés pour identifier les cratères partiellement enterrés sont discutés. Une méthode d'estimation de l'épaisseur des coulées de lave est proposée ultérieurement, basée sur la dégradation topographique de cratères partiellement enterrés. L'épaisseur de coulée de lave la mieux adaptée a ensuite été déterminée en minimisant la différence entre le profil final modélisé et le profil observé. Au chapitre 3, afin de résoudre l'équation de diffusion topographique, le profil d'altitude d'un nouveau cratère d'impact est construit comme condition initiale. Pour les cratères d’impact frais lunaires, nous avons construit un ensemble de profils topographiques qui prennent en compte à la fois la taille des cratères et les types de cibles. Pour les nouveaux cratères d’impact sur Mercure, nous avons construit des profils topographiques qui incluent uniquement des cratères de transition et complexes. Comme décrit au chapitre 4, les épaisseurs de basalte ont été inversées en utilisant 41 cratères de maria dont les bords sont complètement exposés. Le résultat montre que les épaisseurs estimées en basalte mare varient de 33 à 455 m, avec une valeur médiane de 105 m. Nous avons ensuite calculé le volume total et le taux d'éruption des basaltes des maria lunaires et avons constaté que le taux estimé d'éruption des basaltes des maria atteignait un sommet de 3,4 Ga, puis diminuait avec le temps, indiquant un refroidissement progressif de l'intérieur de la lune. Nous avons également constaté que la diffusivité topographique des cratères lunaires augmente avec le diamètre et est presque invariante dans le temps. Au chapitre 5, je présente un résultat similaire pour Mercure. Les épaisseurs de coulées de lave ont été inversées pour 17 cratères dont les bords ont été exposés et enduits de plus de 50% de leur circonférence. Le résultat montre que les épaisseurs de coulées de lave varient de 7 à 419 m, avec une valeur médiane de 218 m. Nous avons ensuite calculé le volume total et le taux d’éruption des coulées de lave. En comparant la diffusivité topographique sur la Lune à celle sur Mercure, on peut constater que les deux valeurs sont similaires. Comme indiqué au chapitre 6, il reste quelques problèmes à résoudre à l'avenir. Tout d'abord, j'ai utilisé une géométrie axisymétrique simple lors de la résolution analytique de l'équation de diffusion topographique et n'ai pas envisagé un processus de dégradation topographique entièrement tridimensionnel. Deuxièmement, les diffusivités topographiques inversées présentent un large intervalle d’incertitude et ne sont pas bien contraintes. Troisièmement, les cratères complexes ont généralement un mécanisme de formation compliqué et un fond géologique et une morphologie de cratère variables, ce qui entraîne une variabilité et une incertitude considérables des relations morphométriques du cratère
In this study, partially buried craters on the lunar maria and the northern smooth plains of Mercury were identified using recently acquired optical, elevation, and composition data, and lava flow thicknesses near partially buried craters were estimated by numerically modeling their topographic degradation. In Chapter 1, I first introduce the geologic background of the volcanic plains on the Moon and Mercury. Next, I will summarize all the methods that have been used to estimate the lava flow thicknesses on the Moon and Mercury, as well as the research progress on the crater topographic degradation. In Chapter 2, I present the remote sensing datasets used in this study. Then, the criteria used to identify partially buried craters are discussed. A lava flow thickness estimation method is later proposed based on the topographic degradation of partially buried craters. The best fitting lava flow thickness was then determined by minimizing the difference between the modeled final profile and the observed profile. In Chapter 3, in order to solve the topographic diffusion equation, the elevation profile of a fresh impact crater is constructed as the initial condition. For lunar fresh impact craters, we constructed a set of topographic profiles that consider both crater sizes and target types. For fresh impact craters on Mercury, we constructed topographic profiles that only include transitional and complex craters. As described in Chapter 4, the basalt thicknesses were inverted using 41 mare craters whose rims are completely exposed. The result shows that the estimated mare basalt thicknesses vary from 33 to 455 m, with a median value of 105 m. We then calculated the total volume and eruption rate of lunar mare basalts, and found that the estimated eruption rate of mare basalts peaked at 3.4 Ga and then decreased with time, indicating a progressive cooling of the lunar interior. We also found that the topographic diffusivity of lunar craters increases with diameter and is almost invariant with time. In Chapter 5, I present a similar result for Mercury. The lava flow thicknesses were inverted for 17 craters whose rims were exposed and embayed for more than 50% of its circumference. The result shows that the lava flow thicknesses vary from 7 to 419 m, with a median value of 218 m. We then calculated the total volume and eruption rate of the lava flows. Comparing the topographic diffusivity on the Moon with that on Mercury, it can be found that both values are similar to each other. As shown in Chapter 6, there are some remaining issues that need to be solved in the future. First, I employed a simple axisymmetric geometry when analytically solving the topographic diffusion equation and did not consider a fully three-dimensional topographic degradation process. Second, the inverted topographic diffusivities have a large range of uncertainty and are not well constrained. Third, complex craters usually have complicated formation mechanism and a variable geologic background and crater morphology, resulting in considerable variability and uncertainty in the crater morphometric relations
APA, Harvard, Vancouver, ISO, and other styles
24

Xu, Hao. "Probabilistic atlas statistical estimation with multimodal datasets and its application to atlas based segmentation." Palaiseau, Ecole polytechnique, 2014. http://pastel.archives-ouvertes.fr/docs/00/96/91/76/PDF/Thesis.pdf.

Full text
Abstract:
Les atlases d'anatomie informatisé jouent un rôle important dans l'analyse d'images médicales. Cependant un atlas se réfère généralement à une image standard ou une moyenne d'image aussi appelé template, qui probablement représente bien d'une population observée, il ne suffit pas pour caractériser la population observée en détail. Un template doit être apprises conjointement avec la variabilité géométrique des formes représentées dans les observations. Ces deux quantités seront par la suite former l'atlas de la population correspondante. La variabilité géométrique est modélisée comme des déformations du template de sorte qu'il s'adapte aux observations. Dans la première partie du travail, nous fournissons un nouveau modèle statistique générative basée sur des templates déformables denses qui représente plusieurs types de tissus observés dans les images médicales. Notre atlas contient à la fois une estimation des templates probabiliste de chaque tissu (appelée classes) et la métrique de déformation. Nous utilisons un algorithme stochastique pour l'estimation de l'atlas probabilistes donné un ensemble de données. Cet atlas est ensuite utilisé pour la méthode de segmentation basée sur l'atlas pour segmenter les nouvelles images. Expériences sont montrées sur les images T1 du cerveau. Les analyses traditionnelles d'imagerie de résonance magnétique fonctionnelle utilisent peu d'informations anatomies. Le recalage des images vers un template est basé sur l'anatomie individuelle et ne tient pas compte des informations fonctionnelles, donc les activations détectées ne se limitent pas à la matière grise. Dans la deuxième partie du travail, on propose un modèle statistique pour estimer un atlas probabiliste de l'IRM fonctionnelle et T1 qui résume à la fois des informations anatomies et fonctionnelles et la variabilité géométrique de la population. Le recalage et la segmentation sont effectuées conjointement pendant l'estimation de l'atlas et l'activité fonctionnelle est limitée à la matière grise, augmenter la précision de l'atlas. Inférer l'abondance des protéines de l'intensité de peptides est l'étape clé dans la protéomique quantitative. La conclusion est nécessairement plus précis quand de nombreux peptides sont pris en compte pour une protéine donnée. Pourtant, l'information apportée par les peptides partagées par différentes protéines est souvent jeté. Dans la troisième partie du travail, nous proposons un système statistique basée sur une modèle hiérarchique à inclure cette information. Notre méthodologie, basée sur une analyse simultanée de tous les peptides quantifiés, gère les erreurs biologiques et techniques ainsi que l'effet des peptides. En outre, nous proposons une mise en œuvre pratique adapté à l'analyse de grandes bases de données. Par rapport à une méthode basée sur l'analyse d'une protéine à la fois (ce qui ne comprend pas les peptides partagés), notre méthodologie s'est révélée être beaucoup plus fiable pour estimer l'abondance de protéines et de tester les changements d'abondance
Computerized anatomical atlases play an important role in medical image analysis. While an atlas usually refers to a standard or mean image also called template, that presumably represents well a given population, it is not enough to characterize the observed population in detail. A template image should be learned jointly with the geometric variability of the shapes represented in the observations. These two quantities will in the sequel form the atlas of the corresponding population. The geometric variability is modelled as deformations of the template image so that it fits the observations. In the first part of the work, we provide a detailed analysis of a new generative statistical model based on dense deformable templates that represents several tissue types observed in medical images. Our atlas contains both an estimation of probability maps of each tissue (called class) and the deformation metric. We use a stochastic algorithm for the estimation of the probabilistic atlas given a dataset. This atlas is then used for atlas-based segmentation method to segment the new images. Experiments are shown on brain T1 MRI datasets. Traditional analyses of Functional Magnetic Resonance Imaging use little anatomical information. The registration of the images to a template is based on the individual anatomy and ignores functional information; subsequently detected activations are not confined to gray matter. In the second part of the work, we propose a statistical model to estimate a probabilistic atlas from functional and T1 MRIs that summarizes both anatomical and functional information and the geometric variability of the population. Registration and Segmentation are performed jointly along the atlas estimation and the functional activity is constrained to the gray matter, increasing the accuracy of the atlas. Inferring protein abundances from peptide intensities is the key step in quantitative proteomics. The inference is necessarily more accurate when many peptides are taken into account for a given protein. Yet, the information brought by the peptides shared by different proteins is commonly discarded. In the third part of the work, we propose a statistical framework based on a hierarchical modeling to include that information. Our methodology, based on a simultaneous analysis of all the quantified peptides, handles the biological and technical errors as well as the peptide effect. In addition, we propose a practical implementation suitable for analyzing large datasets. Compared to a method based on the analysis of one protein at a time (that does not include shared peptides), our methodology proved to be far more reliable for estimating protein abundances and testing abundance changes
APA, Harvard, Vancouver, ISO, and other styles
25

Genov, Antonio. "Estimation de la consommation basée sur les modèles de performance SystemC-TLM des systèmes d'interconnexion et de mémoire des SoC." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4108.

Full text
Abstract:
Le rythme rapide de développement de la microélectronique permet à l’industrie des semiconducteurs de se surpasser constamment et de proposer des produits et des technologies toujours plus innovants et complexes. Les domaines de développement les plus modernes, tels que la 5G, l’Internet des objets (IoT) et l’automobile, reposent sur des conceptions complexes, performantes et à faible consommation. Malheureusement, cette complexité accrue entraîne souvent une consommation d’énergie plus élevée et des conceptions plus difficiles. Afin de résoudre ces problèmes et de se différencier sur le marché, les fabricants et les ingénieurs de Systèmes sur Puce (SoC) déploient des efforts considérables pour rechercher de nouvelles stratégies de développement. De nombreuses études ont montré que l’une des mesures clés à prendre consiste à revoir les premières étapes du flot de conception et, en particulier, à intégrer la modélisation et la vérification basées sur la simulation à un niveau d’abstraction plus élevé. Les premières étapes du développement d’un produit sont essentielles pour éviter les surcoûts, les retards et autres problèmes inattendus. Par conséquent, l’exploration architecturale matérielle/logicielle (HW/SW) est devenue un élément clé de la modélisation des SoC. Dans cette thèse, nous comblons cette lacune et présentons un cadre pour l’estimation/ gestion mixte des performances et de la puissance des SoCs en utilisant des modèles fonctionnels SystemC/TLM2.0 de haut niveau. Notre méthodologie nous permet d’extraire dynamiquement la performance et la puissance, tout en considérant l’activité du modèle fonctionnel, les stratégies de gestion et de réduction de la puissance, et la consommation du système de mémoire. De cette façon, nous pouvons observer l’impact de la gestion de la puissance sur la performance et optimiser le compromis entre les deux au tout début du flot de conception. Nous abordons cette lacune et présentons notre première approche dynamique pour l’estimation mixte de la puissance et de la performance appliquée à un sous-système d’interconnexion de la Propriété Intellectuelle (IP) de NXP utilisé dans la série de SoC i.MX8. Cette méthodologie de modélisation utilise la bibliothèque PwClkARCH, qui suit la sémantique de UPF et permet l’estimation et la gestion de la puissance. Son point clé est qu’elle maintient une forte séparation entre le code fonctionnel et la description de l’intention de puissance. Il n’y a pas de code intrusif orienté puissance dans le modèle fonctionnel, ce qui simplifie l’exploration architecturale, permet une réutilisation conjointe et séparée des modèles comportementaux et de puissance, et conduit à un code plus complet et à une estimation plus facile des performances
The rapid pace of development in microelectronics enables the semiconductor industry to constantly surpass itself and to offer ever more innovative and complex products and technologies. The most modern areas of development, such as 5G, the Internet of Things (IoT) and automotive, rely on complex, high¬-performance, low-¬power designs. Unfortunately, this increased complexity often leads to higher power consumption and more challenging designs. In order to solve these problems and differentiate themselves in the market, System¬-on-Chip (SoC) manufacturers and engineers are putting tremendous effort into researching new development strategies. Numerous studies have shown that one of the key steps to take is to revisit the early stages of the design flow and, in particular, to integrate simulation-based modeling and verification at a higher level of abstraction. The early stages of product development are critical to avoiding costs, delays, and other unexpected problems. As a result, Hardware/Software (HW/SW) architectural exploration has become a key component of SoC modeling. In this thesis, we address this gap and present a framework for mixed performance and power estimation/management of SoCs using high¬-level SystemC/TLM2.0 functional models. Our methodology allows us to dynamically extract performance and power, while considering functional model activity, power management and reduction strategies, and memory system consumption. In this way, we can observe the impact of power management on performance and optimize the trade¬off between the two at the very beginning of the design flow. We address this shortcoming and present our first dynamic approach for mixed power/performance estimation applied to an NXP Intellectual Property (IP) interconnection subsystem used in i.MX8 SoC series. This modeling methodology uses the PwClkARCH library, which follows UPF semantics and enables power estimation and management. Its key point is that it maintains a strong separation between the functional code and the power intent description. There is no intrusive power¬-oriented code in the functional model, which simplifies architectural exploration, allows joint and separate reuse of behavioral and power models, and leads to more complete code and easier performance estimation
APA, Harvard, Vancouver, ISO, and other styles
26

Matha, Pauline. "Pression temporelle et estimation du temps." Thesis, Toulouse 2, 2015. http://www.theses.fr/2015TOU20095/document.

Full text
Abstract:
L’objectif majeur de cette thèse de doctorat est d’étudier la pression temporelle afin de mieux appréhender cette notion si familière et pourtant si peu étudiée. A partir de l’observation de l’omniprésence de cette pression temporelle dans notre société et de l’importance de la perception du temps dans nos activités quotidiennes, nous avons choisi de l’examiner à travers son influence sur l’estimation de durées. Pour ce faire, nous avons mis en place une série d’expérimentations : d’abord dans le cadre de la littérature sur l’estimation du temps, utilisant des tâches temporelle d’estimation verbale et de production de durées ; puis dans le cadre de la littérature sur la mémoire prospective, et plus précisément avec des tâches de mémoire prospective basée sur le temps. Notre hypothèse est que la pression temporelle provoque une modification du temps perçu. Les résultats de nos premières expérimentations réalisées avec des tâches temporelles d’estimation verbale et de production de durées révèlent que soumettre des participants à une condition de pression temporelle provoque une distorsion temporelle comparée à une condition sans pression temporelle. Cette distorsion temporelle va dans le sens d’une surestimation des durées. En revanche, aucun effet de la pression temporelle n’a été relevé dans les expérimentations réalisées avec les tâches de mémoire prospective basée sur le temps, si ce n’est sur les performances à la tâche non temporelle, aussi appelée tâche en cours
This doctoral thesis aims at investigating time pressure to have a better understanding of this so familiar concept and yet so little studied. On the one hand, time pressure is ubiquitous in our occidental society; on the other hand, time perception is essential in our daily activities. Then, we have consciously opted to study time pressure through its effects on time estimation. To this end, we elaborate series of experiments within two different frameworks; time estimation literature with two different tasks (verbal estimation and time production) and prospective memory literature, more precisely with time-based prospective memory tasks. Our assumption is that time pressure leads to a subjective time distortion. The results of our experiments reveal that time pressure causes a temporal distortion when participants have to estimate or produce a duration: in the condition with time pressure they overestimate durations, compared to a condition without time pressure. In contrast, no time pressure effect is revealed on the temporal component of our time-based prospective memory task; but performance on the ongoing task is affected by time pressure
APA, Harvard, Vancouver, ISO, and other styles
27

Bouet, Romain. "Activations cérébrales liées à l’intégration des indices locaux lors de la perception de la transparence : investigation basée sur l’imagerie fonctionnelle cérébrale." Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/bouet_r.

Full text
Abstract:
La perception de la couleur d'une surface nécessite l'intégration globale des informations de contrastes locaux contenues dans une image. Cette intégration permet de différencier les caractéristiques spectrales intrinsèques d'une surface et les modifications induites sur celles-ci par une ombre, un changement d'éclairage ou une surface transparente. Nous utilisons le phénomène de transparence pour déterminer les aires corticales impliquées dans ces intégrations qui mènent à l'extraction des caractéristiques globales de l'image. La distribution des activités observée montre l'implication d'un réseau médio-ventro-occipital lors de la perception de la transparence. Ces activations sont différentes de celles impliquées classiquement dans le traitement d'informations chromatiques. Le parahippocampe semble faire le lien entre l'extraction du filtre transparent et les régions corticales impli quées dans le traitement des propriétés des objets. Ceci suggère que l'intégration d'indices locaux nécessite un niveau de codage où le stimulus est transformé en une représentation d'objet. Les processus impliqués peuvent être révélateurs de mécanismes mis en place dans la perception des surfaces pour distinguer les changements de surfaces des changements d'éclairage
Surface color perception requires the global intégration of local tristimulus contrasts to differentiate shadows, illuminance gradients and transparent layers from the intrinsic spectral characteristics of the surface. We exploit the phenomenon of transparency to identify cortical areas involved in the intégration of local contrasts to extract global surface characteristics. The distribution of activity observed supports a rôle for a medio-ventro-occipital network in transparency perception. Activated areas are separable from those differentially activated when subjects view color patterns. The parahippocampus links the extraction of a transparent layer with a site activated by object-related properties of an image. This suggests that the integration of local color differences involves a coding stage at which the stimulus is transformed into a representation of an object. The processes involved may be exemplary of general mechanisms used in the brain in surface perception to disambiguate material from illuminant changes
APA, Harvard, Vancouver, ISO, and other styles
28

Villon, Sébastien. "Estimation automatisée sur vidéos de la biodiversité et de l’abondance des poissons coralliens." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTG058.

Full text
Abstract:
Les récifs coralliens soutiennent une forte biodiversité en poissons (environ 7000 espèces) qui est la source de plusieurs services écosystémiques comme l’apport en protéines via la pêche, la régulation des flux de matière mais aussi le support d’activités récréatives comme la plongée. Cependant, ces poissons subissent des pressions croissantes comme la surexploitation par la pêche et la destruction du corail par réchauffement climatique. Dans ce contexte, un des enjeux majeurs de l’écologie marine est d’estimer précisément la biodiversité, l’abondance et la biomasse de ces poissons récifaux et ce, avec une fréquence temporelle permettant de détecter les modifications liées aux changements environne-mentaux, aux pressions anthropiques et aux stratégies de gestion (e.g. réserves marines). Jusqu’à récemment, le recensement des poissons récifaux s’effectuait principalement en plongée au cours desquelles l’observateur identifiait toutes les espèces visibles et estimait leurs abondances (nombre d’individus). Ce protocole induit des limites comme la durée et la profondeur des plongées ainsi que des erreurs ou des biais liés à l’expérience du plongeur qui ne sont pas quantifiables ou corrigibles a posteriori. Face à ces limitations, les récents développements technologiques dans la prise de vidéos sous-marines en haute définition à moindre coût offrent des protocoles beaucoup moins contraignants. Cependant, il n’existe à l’heure actuelle aucun moyen rapide et fiable d’analyser ces quantités de données ce qui empêche l’essor de ces suivis vidéos à grande échelle. Au cours de cette thèse, nous avons mis en place des algorithmes d’identification et de localisation automatiques de poissons dans des vidéos sous-marines. L’ensemble du processus fut abordé, depuis les campagnes terrain permettant de récolter les vidéos à l’annotation de ces données afin de les rendre exploitables par des algorithmes d’apprentissage profond (ou Deep Learning), à la conception des modèles, au test de ces modèles et au traitement des sorties des différents modèles. Nous avons ainsi récolté plus de 380.000 images appartenant à plus de 300 espèces de poissons récifaux. Nous avons développé des méthodes d’identification précises (94% de bonnes classifications) pour 20 espèces parmi les plus présentes sur les récifs coralliens autour de Mayotte, ainsi que des méthodes de post-traitement permettant de détecter et de supprimer les erreurs commises par le modèle (diminuant ainsi le taux d’erreur jusqu’à 2%). Nous avons aussi développé un algorithme de détection permettant de localiser plus de 84% des individus présents à l’image sur une vidéo
Coral reefs are home of a great fish biodiversity (approximately 7000 species). This biodiversity is the source of many vital ecosystem services such as protein intakes for local populations, nutrients cycle or regulation of algae abundancy. However, increasing human pressure through over-fishing and global warming is destroying both fish popu-lations and their habitats. In this context, monitoring the coral reef fish biodiversity,abundancy and biomass with precision is one of the major issues for marine ecology. To face the increasing pressure and fast globals changes, such monitoring has to be done at a large sclae, temporally and spatially. Up to date, most of fish underwater census is achieved through diving, during which the diver identify fish species and count them. Such manual census induces many constraints (depth and duration of the dive) and biais due to the diver experience. These biais (mistaking fish species or over/under estimating fish populations) are not quantifiable nor correctable. Today, thanks to the improvement of high resolution, low-cost, underwater cameras, new protocoles are developed to use video census. However, there is not yet a way to automaticaly process these underwater videos.Therefore, the analysis of the videos remains a bottleneck between the data gathering through video census and the analysis of fish communities. During this thesis, we develop-ped automated methods for detection and identification of fish in underwater videos with Deep Learning based algorithm. We work on all aspects of the pipeline, from video acqui-sition, data annotation, to the models and post-processings conception, and models testing. Today, we have gather more than 380,000 images of 300 coral reef species. We developped an identification model who successfully identified 20 of the most common species onMayotte coral reefs with 94% rate of success, and post-processing methods allowing us to decrease the error rate down to 2%. We also developped a detection method allowing us to detect up to 84% of fish individuals in underwater videos
APA, Harvard, Vancouver, ISO, and other styles
29

Qian, Jun. "Identification paramétrique en boucle fermée par une commande optimale basée sur l’analyse d’observabilité." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10113/document.

Full text
Abstract:
Dans un objectif conjoint d'identification paramétrique en ligne, les méthodes développées dans cette thèse permettent de concevoir en ligne et en boucle fermée les entrées optimales qui enrichissent les informations contenues dans l'expérience en cours. Ces méthodes reposent sur des mesures en temps réel du procédé, sur un modèle dynamique non linéaire (ou linéaire) multi-variable choisi du procédé, sur un modèle de sensibilité des mesures par rapport aux paramètres à estimer et sur un observateur non linéaire. L'analyse de l'observabilité et des techniques de commande prédictive permettent de définir la commande optimale qui est déterminée en ligne par optimisation sous contraintes. Des aspects de stabilisation sont également étudiés (via un apport de contraintes fictives ou via une technique de Lyapunov). Enfin, une loi de commande explicite pour le cas particulier du système d'ordre un est développée. Des exemples illustratifs sont traités via le logiciel ODOE4OPE : un bioréacteur, un réacteur continu parfaitement agité et une aile delta. Ces exemples permettent de voir que l'estimation des paramètres peut être réalisée avec une bonne précision, et à moindre coût expérimental en une expérience
For online parameter identification, the developed methods here allow to design online and in closed loop optimal inputs that enrich the information in the current experience. These methods are based on real-time measurements of the process, on a dynamic nonlinear (or linear) multi-variable model, on a sensitivity model of measurements with respect to the parameters to be estimated and a nonlinear observer. Analysis of observability and predictive control techniques are used to define the optimal control which is determined online by constrained optimization. Stabilization aspects are also studied (by adding fictitious constraints or by a Lyapunov technique). Finally, for the particular case of a first order linear system, the explicit control law is developed. Illustrative examples are processed via the ODOE4OPE software : a bio-reactor, a continuous stirred tank reactor and a delta wing. These examples help to see that the parameter estimation can be performed with good accuracy in a single and less costly experiment
APA, Harvard, Vancouver, ISO, and other styles
30

Zendjebil, Imane. "Localisation 3D basée sur une approche de suppléance multi-capteurs pour la Réalité Augmentée Mobile en Milieu Extérieur." Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tell-00541366.

Full text
Abstract:
La démocratisation des terminaux mobiles telle que les téléphones cellulaires, les PDAs et les tablettes PC a rendu possible le déploiement de la réalité augmentée dans des environnements en extérieur à grande échelle. Cependant, afin de mettre en oeuvre de tels systèmes, différentes problématiques doivent êtres traitées. Parmi elle, la localisation représente l?une des plus importantes. En effet, l?estimation de la position et de l?orientation (appelée pose) du point de vue (de la caméra ou de l?utilisateur) permet de recaler les objets virtuels sur les parties observées de la scène réelle. Dans nos travaux de thèse, nous présentons un système de localisation original destiné à des environnements à grande échelle qui utilise une approche basée vision sans marqueur pour l?estimation de la pose de la caméra. Cette approche se base sur des points caractéristiques naturels extraits des images. Etant donné que ce type d?approche est sensible aux variations de luminosité, aux occultations et aux mouvements brusques de la caméra, qui sont susceptibles de survenir dans l?environnement extérieur, nous utilisons deux autres types de capteurs afin d?assister le processus de vision. Dans nos travaux, nous voulons démontrer la faisabilité d?un schéma de suppléance dans des environnements extérieurs à large échelle. Le but est de fournir un système palliatif à la vision en cas de défaillance permettant également de réinitialiser le système de vision en cas de besoin. Le système de localisation vise à être autonome et adaptable aux différentes situations rencontrées.
APA, Harvard, Vancouver, ISO, and other styles
31

Charron, Jacques-Olivier. "La relation entre estimation de la valeur fondamentale des sociétés cotées et évolution de leur cours : une contribution basée sur des études de cas." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2010. http://tel.archives-ouvertes.fr/tel-00646347.

Full text
Abstract:
L'efficience fondamentale, i.e. l'efficience comprise comme conformité de la valorisation par les marchés financiers à la valeur fondamentale des titres est en tant que telle peu testée. Notre recherche vise à renouveler ses modes de test en se basant sur une conception constructiviste de la valeur fondamentale. Ce renouvellement, axé sur l'adoption d'un point de vue d'investi, est mis en oeuvre sur 4 cas de sociétés cotées françaises sur une période de 3 ans. La première partie de la thèse est consacrée à l'identification des acteurs les plus légitimés de ce type d'expression publique. Elle montre que ce sont les analystes financiers sell-side. La deuxième partie étudie la relation entre l'estimation publique de la valeur fondamentale par ces acteurs et l'évolution des cours. Elle aboutit au constat d'une estimation fortement dépendante de la dynamique du marché. La troisième partie apporte des éléments d'explication de ce constat en présentant sous la forme d'une configuration le mode d'interdépendance dans lequel s'inscrivent à la fois les analystes, les investisseurs et d'autres acteurs.
APA, Harvard, Vancouver, ISO, and other styles
32

Khelif, Racha. "Estimation du RUL par des approches basées sur l'expérience : de la donnée vers la connaissance." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2019/document.

Full text
Abstract:
Nos travaux de thèses s’intéressent au pronostic de défaillance de composant critique et à l’estimation de la durée de vie résiduelle avant défaillance (RUL). Nous avons développé des méthodes basées sur l’expérience. Cette orientation nous permet de nous affranchir de la définition d’un seuil de défaillance, point problématique lors de l’estimation du RUL. Nous avons pris appui sur le paradigme de Raisonnement à Partir de Cas (R à PC) pour assurer le suivi d’un nouveau composant critique et prédire son RUL. Une approche basée sur les instances (IBL) a été développée en proposant plusieurs formalisations de l’expérience : une supervisée tenant compte de l’ état du composant sous forme d’indicateur de santé et une non-supervisée agrégeant les données capteurs en une série temporelle mono-dimensionnelle formant une trajectoire de dégradation. Nous avons ensuite fait évoluer cette approche en intégrant de la connaissance à ces instances. La connaissance est extraite à partir de données capteurs et est de deux types : temporelle qui complète la modélisation des instances et fréquentielle qui, associée à la mesure de similarité permet d’affiner la phase de remémoration. Cette dernière prend appui sur deux types de mesures : une pondérée entre fenêtres parallèles et fixes et une pondérée avec projection temporelle. Les fenêtres sont glissantes ce qui permet d’identifier et de localiser l’état actuel de la dégradation de nouveaux composants. Une autre approche orientée donnée a été test ée. Celle-ci est se base sur des caractéristiques extraites des expériences, qui sont mono-dimensionnelles dans le premier cas et multi-dimensionnelles autrement. Ces caractéristiques seront modélisées par un algorithme de régression à vecteurs de support (SVR). Ces approches ont été évaluées sur deux types de composants : les turboréacteurs et les batteries «Li-ion». Les résultats obtenus sont intéressants mais dépendent du type de données traitées
Our thesis work is concerned with the development of experience based approachesfor criticalcomponent prognostics and Remaining Useful Life (RUL) estimation. This choice allows us to avoidthe problematic issue of setting a failure threshold.Our work was based on Case Based Reasoning (CBR) to track the health status of a new componentand predict its RUL. An Instance Based Learning (IBL) approach was first developed offering twoexperience formalizations. The first is a supervised method that takes into account the status of thecomponent and produces health indicators. The second is an unsupervised method that fuses thesensory data into degradation trajectories.The approach was then evolved by integrating knowledge. Knowledge is extracted from the sensorydata and is of two types: temporal that completes the modeling of instances and frequential that,along with the similarity measure refine the retrieval phase. The latter is based on two similaritymeasures: a weighted one between fixed parallel windows and a weighted similarity with temporalprojection through sliding windows which allow actual health status identification.Another data-driven technique was tested. This one is developed from features extracted from theexperiences that can be either mono or multi-dimensional. These features are modeled by a SupportVector Regression (SVR) algorithm. The developed approaches were assessed on two types ofcritical components: turbofans and ”Li-ion” batteries. The obtained results are interesting but theydepend on the type of the treated data
APA, Harvard, Vancouver, ISO, and other styles
33

Alves, da Silva Lucas. "Estimation de la consommation d'énergie et du taux d'erreur bit d'un système Bluetooth LE basée sur la modélisation hiérarchique d'un amplificateur de puissance à 2,4 GHz." Nice, 2011. http://www.theses.fr/2011NICE4103.

Full text
Abstract:
Les travaux de recherche présentés dans cette thèse abordent la prise en compte de la consommation d’énergie lors du développement de modèles hiérarchiques pour le développement de systèmes électroniques complexes. Une chaîne de communication sans fil Bluetooth Low-Energy (B-LE) a été créée, l’objectif étant d’estimer la durée de vie de la batterie du système complet, lors des différentes phases de développement. Dans un premier temps, le comportement énergétique du segment numérique a été étudié, en s’appuyant sur un modèle en systèmeC. Une analyse des différentes stratégies de découverte de dispositifs a été menée, considérant la consommation moyenne comme facteur d’optimisation. La modélisation du transceiver radio à partir de blocs comportementaux permet d’estimer la consommation énergétique du système complet et son influence sur le taux d’erreur par bit (TEB). La conception d’un amplificateur de puissance est présentée, à partir des spécifications, jusqu’à son design et à sa fabrication. Deux méthodes sont proposées pour l’extraction de la consommation de puissance, menant à des modèles comportementaux plus précis, tout en gardant des temps de simulation acceptables
The different results presented in this thesis focus on considering the energy consumption, during the development of hierarchical models for the design and verification of complex electronic systems. A wireless communication system was developed, complying to the Bluetooth Low-Energy (B-LE) standard, to estimate the whole system’s energy consumption, during the development phases. Initially, the energetic behaviour of the digital segment was studied, following the virtual prototyping approach. At the network level, an analysis of the different scan and advertisement strategies could be conducted, considering the device’s average power consumption as the optimization factor. Following, the radio transceiver’s modelling, using behavioural blocks, allows the estimation of the whole system’s energy consumption, as well as its influence over the system’s bit-error rate (BER). Finally the design of a power amplifier is presented, starting with its specification, through the architectural exploration and choice, until the circuit’s design and tape-out. Two methods are then proposed for the extraction of the power consumption, leading to refined accurate behavioural models, with minimal increase in simulation times
APA, Harvard, Vancouver, ISO, and other styles
34

Domenach, Anne-Marie. "Estimation de la fixation symbiotique chez des plantes herbacées et ligneuses : utilisation et validité de la méthode basée sur la mesure des abondances isotopiques naturelles de l'azote." Lyon 1, 1987. http://www.theses.fr/1987LYO10042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Sabiron, Guillaume. "Synthèse d’une solution GNC basée sur des capteurs de flux optique bio-inspirés adaptés à la mesure des basses vitesses pour un atterrissage lunaire autonome en douceur." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0038/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au problème de l’atterrissage lunaire autonome et nous proposons une méthode innovante amenant une alternative à l’utilisation de capteurs classiques qui peuvent se révéler encombrants, énergivores et très onéreux.La première partie est consacrée au développement et à la construction de capteurs de mouvement inspirés de la vision des insectes volants et mesurant le flux optique.Le flux optique correspond à la vitesse angulaire relative de l’environnement mesurée par la rétine d’un agent. Dans un environnement fixe, les mouvements d’un robot génèrent un flux optique contenant des informations essentielles sur le mouvement de ce dernier. En utilisant le principe du « temps de passage », nous présentons les résultats expérimentaux obtenus en extérieur avec deux versions de ces capteurs.Premièrement, un capteur mesurant le flux optique dans les deux directions opposées est développé et testé en laboratoire. Deuxièmement un capteur adapté à la mesure des faibles flux optiques similaires à ceux pouvant être mesurés lors d’un alunissage est développé, caractérisé et enfin testé sur un drone hélicoptère en conditions extérieures.Dans la seconde partie, une méthode permettant de réaliser le guidage, la navigation et la commande (GNC pour Guidance Navigation and Control) du système est proposée. L’innovation réside dans le fait que l’atterrissage en douceur est uniquement assuré par les capteurs de flux optique. L’utilisation des capteurs inertiels est réduite au maximum. Plusieurs capteurs orientés dans différentes directions de visée, et fixés à la structure de l’atterrisseur permettent d’atteindre les conditions finales définies par les partenaires industriels. Les nombreuses informations décrivant la position et l’attitude du système contenues dans le flux optique sont exploitées grâce aux algorithmes de navigation qui permettent d’estimer les flux optiques ventraux et d’expansion ainsi que le tangage.Nous avons également montré qu’il est possible de contrôler l’atterrisseur planétaire en faisant suivre aux flux optiques estimés une consigne optimale au sens de la consommation d’énergie. Les simulations réalisées durant la thèse ont permis de valider le fonctionnement et le potentiel de la solution GNC proposée en intégrant le code du capteur ainsi que des images simulées du sol de la lune
In this PhD thesis, the challenge of autonomous lunar landing was addressed and an innovative method was developed, which provides an alternative to the classical sensor suites based on RADAR, LIDAR and cameras, which tend to be bulky, energy consuming and expensive. The first part is devoted to the development of a sensor inspired by the fly’s visual sensitivity to optic flow (OF). The OF is an index giving the relative angular velocity of the environment sensed by the retina of a moving insect or robot. In a fixed environment (where there is no external motion), the self-motion of an airborne vehicle generates an OF containing information about its own velocity and attitude and the distance to obstacles. Based on the “Time of Travel” principle we present the results obtained for two versions of 5 LMSs based optic flow sensors. The first one is able to measure accurately the OF in two opposite directions. It was tested in the laboratory and gave satisfying results. The second optic flow sensor operates at low velocities such as those liable to occur during lunar landing was developed. After developing these sensors, their performances were characterized both indoors and outdoors, and lastly, they were tested onboard an 80-kg helicopter flying in an outdoor environment. The Guidance Navigation and Control (GNC) system was designed in the second part on the basis of several algorithms, using various tools such as optimal control, nonlinear control design and observation theory. This is a particularly innovative approach, since it makes it possible to perform soft landing on the basis of OF measurements and as less as possible on inertial sensors. The final constraints imposed by our industrial partners were met by mounting several non-gimbaled sensors oriented in different gaze directions on the lander’s structure. Information about the lander’s self-motion present in the OF measurements is extracted by navigation algorithms, which yield estimates of the ventral OF, expansion OF and pitch angle. It was also established that it is possible to bring the planetary lander gently to the ground by tracking a pre-computed optimal reference trajectory in terms of the lowest possible fuel consumption. Software-in-the-loop simulations were carried out in order to assess the potential of the proposed GNC approach by testing its performances. In these simulations, the sensor firmware was taken into account and virtual images of the lunar surface were used in order to improve the realism of the simulated landings
APA, Harvard, Vancouver, ISO, and other styles
36

Ribouh, Soheyb. "Identification de l'environnement basée sur l'estimation de canal et génération de clés de sécurité pour les communications véhiculaires." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0029.

Full text
Abstract:
Les véhicules connectés autonomes devraient être largement déployés dans le cadrede la prochaine génération de systèmes de transport et de la future route intelligente.Comme l'environnement véhiculaire est très mobile, les messages transmis sont affectés par l'effet de canal sans fil. L'estimation de canal devient ainsi l'une des tâchesles plus difficiles des communications véhiculaires (V2X). Dans ce contexte, nousproposons un nouvel algorithme d'estimation de canal MSCR (Multiple SequentialConstraint Removal) dédiée aux communications V2X basées sur les systèmes OFDM.De plus, l'identification de l'environnement dans lequel le véhicule circule est assez importantepour permettre au véhicule de prendre les bonnes décisions de conduite autonome.Ainsi, en exploitant les caractéristiques estimées du canal sans fil, nous proposonsune nouvelle approche d'identification de l'environnement véhiculaire basée surle Deep Learning, où les CSI estimées sont utilisées comme caractéristiques d'entréepour le modèle proposé. En outre, comme l'environnement véhiculaire est un accès ouvert,les messages échangés via la communication V2X sont vulnérables aux attaques.Par consequent, nous proposons un nouvel algorithme de generation de clé à base dela couche physique afin de sécuriser les communications véhiculaires, où les valeursCSI sont utilisées comme source aléatoire. Notre algorithme de génération de clés a étéimplémenté sur des cartes SDR USRP et a été testé sur un environnement véhiculaireréel. Les résultats de l'évaluation des performances de toutes les méthodes proposées(algorithme d'estimation de canal MSCR, approche d'identification d'environnementet algorithme de génération de clés), montrent qu'elles répondent parfaitement auxexigences requises dans un environnement véhiculaire
Autonomous connected vehicles are expected to see prevalent usage as part ofthe next generation of transportation systems and the smart road vision Since thevehicular environment is highly mobile, the transmitted messages are affected by thewireless channel effect. This makes channel estimation one of the challenging tasksin Vehicle-To-Everything (V2X) communications. In this context, we propose a novelMultiple Sequential Constraint Removal (MSCR) algorithm of channel estimation,dedicated to OFDM systems based-V2X communications. In addition, identifyingthe environment where the vehicle is driving along is quite important in order toallow the vehicle to make the correct self- driving decisions. Thus by exploiting theestimated wireless channel characteristics, we propose a novel vehicular environmentidentification approach based on deep learning, where the estimated channel stateinformation (CSI) are used as input features for the proposed model. Besides that,as the vehicular environment is open access exchanged messages through V2X communicationare vulnerable to attacks. Therefore, we propose a novel physical layerkey generation algorithm in order to secure vehicular communications, where the CSIvalues are used as a source of randomness. Our key generation algorithm has beenimplemented on USRP Software-Defined Radios (SDR) cards and has been tested ona real-world testbed vehicular environment. The performance evaluation results of allthe proposed methods (MSCR channel estimation algorithm, environment identificationsapproach, and key generation algorithm), show that they meet the performancesrequired in a vehicular environment
APA, Harvard, Vancouver, ISO, and other styles
37

Hospital, Fabien. "Conception préliminaire des actionneurs électromagnétiques basée sur les modèles : lois d'estimations et règles de conception pour la transmission de puissance mécanique." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0036/document.

Full text
Abstract:
Dans la continuité des travaux de recherches sur les systèmes de transmission mécanique embarqués, l’objectif de cette thèse est double : approfondir les modèles d’estimations des pièces d’un Actionneur Electromécanique (EMA) et étendre la vision transversale de la conception préliminaire aux aspects dynamiques. En effet, cette recherche permet, lors de la conception préliminaire basée sur les modèles, d’adapter les choix d’architectures et de technologies vis-à-vis des performances statiques et dynamiques à atteindre. Les modèles développés à partir des lois d’échelles sont étendus et exploités afin de modéliser les pièces élémentaires de l’EMA et de faire ressortir les règles de « bonnes pratiques » en conception préliminaire. On s’intéresse en particulier au dimensionnement des EMAs dans le domaine aéronautique. Dans un premier temps, nous avons donc créé des modèles d’estimation et des métamodèles des pièces de l’EMA. A cet effet, il est décomposé en carter et pièces élémentaires qu’il intègre.Dans un second temps, nous avons établis des règles de bonne conception et des pistes de dimensionnement de l’actionneur asservi en position. Contrairement aux recherches antérieures, qui se centraient sur le dimensionnement en puissance, nous avons pris en compte la synthèse de la commande pour établir ces règles. A partir de modèles de simulations, nous qualifions et quantifions l’influence des défauts (inertie et saturations, élasticité/jeu, frottement) sur les performances limites de l’EMA. En effet, les structures de commande usuelles et le choix des éléments de contrôle-commande sont intimement liés aux performances dynamiques et à ces défauts. Enfin, afin de se doter de moyens d’essais pour identifier finement un modèle de frottement dans des conditions aéronautiques de température, un banc d'essai sur le réducteur Harmonic Drive a été conçu et mis en œuvre. Il permet également d’amorcer la validation des règles de bonne conception
In the continuity of work of research on embedded systems of mechanical transmission, this these has two objectives: to improve estimation models of Electromechanical Actuator (EMA) pieces and to extend the cross-cutting vision of preliminary design to the dynamic aspects. Indeed, in the preliminary design based on models, this research should allow to adapt the choice of architectures and technologies to static and dynamic performance to achieve. The models developed from the scaling laws will be extended and exploited to modelize elementary pieces of the EMA and to highlight rules of "good practices" in preliminary design. We focus in particular on the design of EMA in aeronautic field. In the first time, we developed estimations models and métamodèles of elementary components of EMA which was decomposed in housing and elementary pieces.In a second time, we established rules of good practices for actuator sizing in control position loop. Contrary to older researches, we take into account control synthesis to create these rules. From simulations models, we quantified the influence of technological defects of components (inertia and saturations, elasticity (backlash), friction) on EMA performances. Indeed, the usual command structures and the choice of the elements of control are intimately linked to the dynamic performance and these defects.Finally, to give test way to identify with accuracy a friction model in aeronautical conditions of temperature, a test bench of Harmonic Drive was create, integrated and implemented. It allows booting the validation of rules of good practices in preliminary design
APA, Harvard, Vancouver, ISO, and other styles
38

Antigny, Nicolas. "Estimation continue de la pose d'un équipement tenu en main par fusion des données visio-inertielles pour les applications de navigation piétonne en milieux urbains." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0027/document.

Full text
Abstract:
Pour assister la navigation piétonne dans les espaces urbains et intérieurs, une estimation précise de la pose (i.e. la position 3D et l'orientation3D) d'un équipement tenu en main constitue un point essentiel dans le développement d'outils d'aide à la mobilité (e.g. applications de réalité augmentée). Dans l'hypothèse où le piéton n'est équipé que d'appareils grand public, l'estimation de la pose est limitée à l'utilisation de capteurs à faible coût intégrés dans ces derniers (i.e. un récepteur GNSS, une unité de mesure inertielle et magnétique et une caméra monoculaire). De plus, les espaces urbains et intérieurs, comprenant des bâtiments proches et des éléments ferromagnétiques, constituent des zones difficiles pour la localisation et l'estimation de la pose lors de grands déplacements piétons.Cependant, le développement récent et la mise à disposition d'informations contenues dans des Systèmes d'Information Géographiques 3D constituent une nouvelle source de données exploitable pour la localisation et l'estimation de la pose. Pour relever ces défis, cette thèse propose différentes solutions pour améliorer la localisation et l'estimation de la pose des équipements tenus en main par le piéton lors de ses déplacements en espaces urbains et intérieurs. Les solutions proposées intègrent l'estimation de l'attitude basée inertielle et magnétique, l'odométrie visuelle monoculaire mise à l'échelle grâce à l'estimation des déplacements du piéton, l'estimation absolue de la pose basée sur la reconnaissance d'objets SIG 3D parfaitement connus et la mise à jour en position de la navigation à l'estime du piéton.Toutes ces solutions s'intègrent dans un processus de fusion permettant d'améliorer la précision de la localisation et d'estimer en continu une pose qualifiée de l'appareil tenu en main.Cette qualification est nécessaire à la mise en place d'un affichage en réalité augmentée sur site. Pour évaluer les solutions proposées, des données expérimentales ont été recueillies au cours de déplacements piétons dans un espace urbain avec des objets de référence et des passages intérieurs
To support pedestrian navigation in urban and indoor spaces, an accurate pose estimate (i.e. 3Dposition and 3D orientation) of an equipment held inhand constitutes an essential point in the development of mobility assistance tools (e.g.Augmented Reality applications). On the assumption that the pedestrian is only equipped with general public devices, the pose estimation is restricted to the use of low-cost sensors embedded in the latter (i.e. an Inertial and Magnetic Measurement Unit and a monocular camera). In addition, urban and indoor spaces, comprising closely-spaced buildings and ferromagnetic elements,constitute challenging areas for localization and sensor pose estimation during large pedestrian displacements.However, the recent development and provision of data contained in 3D Geographical Information System constitutes a new wealth of data usable for localization and pose estimation.To address these challenges, this thesis proposes solutions to improve pedestrian localization and hand-held device pose estimation in urban and indoor spaces. The proposed solutions integrate inertial and magnetic-based attitude estimation, monocular Visual Odometry with pedestrian motion estimation for scale estimation, 3D GIS known object recognition-based absolute pose estimation and Pedestrian Dead-Reckoning updates. All these solutions are fused to improve accuracy and to continuously estimate a qualified pose of the handheld device. This qualification is required tovalidate an on-site augmented reality display. To assess the proposed solutions, experimental data has been collected during pedestrian walks in an urban space with sparse known objects and indoors passages
APA, Harvard, Vancouver, ISO, and other styles
39

Duterme, Amandine. "Estimation de l'état d'un procédé basée sur la réconciliation de données couplée à un simulateur : application à l'aide à la conduite d'une unité de recyclage du combustible nucléaire usé." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0122.

Full text
Abstract:
L’état du procédé est défini par le diagramme de flux élaboré pour obtenir des performances voulues, en s’appuyant sur la connaissance des phénomènes mis en jeu dans le procédé. Des mesures caractéristiques de l’état du procédé peuvent être mises en évidence et constituent les indicateurs d’état. La disponibilité d’un simulateur du procédé permet de relier les données opératoires aux valeurs de ces indicateurs. La conduite d’un procédé fait appel aux mesures disponibles sur l’installation et notamment les paramètres opératoires et les indicateurs d’état. L’objectif de la conduite du procédé est de rester le plus proche possible de l’état visé, cet état étant caractérisé par les indicateurs clés de performance (KPI). Il importe ainsi de suivre en temps réel l’écart entre les états réel et visé. Cependant, compte tenu des incertitudes de mesure et de la présence éventuelle de biais sur certains capteurs, l’utilisation des mesures brutes n’est pas satisfaisante et il est primordial de filtrer et réconcilier les grandeurs mesurées. Dans le cadre des applications en ligne des modèles de connaissance et de la réconciliation de données (RD), nous nous sommes plus particulièrement intéressés aux capteurs logiciels pour l’estimation de l’état et de la performance d’un procédé. L’objectif est d’obtenir une aide à la conduite intelligente d’opérations complexes, à partir de la connaissance du fonctionnement du procédé et de l’information disponible au travers de mesures réconciliées. L’inventaire et l’analyse des données disponibles sur l’installation (position et type des capteurs…) permettent, en lien avec un modèle, l’évaluation de l’observabilité et de la redondance du procédé. L’exploitation de cette redondance via la RD permet alors d’améliorer la confiance dans les informations disponibles et de générer un ensemble de données cohérentes, a minima avec les bilans matière et, selon le modèle utilisé, avec les lois fondamentales de la physique et de la chimie. Deux formulations pour la résolution du problème d’optimisation sont proposées et comparées : la première repose sur une approche de type «feasible path », où un simulateur du procédé basé sur un modèle de connaissance est utilisé pour la RD et l’estimation de paramètres, permettant ainsi d’exploiter au maximum l’information disponible sur le procédé au travers des capteurs ; la seconde basée sur un modèle de substitution (surrogate model) du procédé et résolue suivant une approche de type « unfeasible path » permet de se prémunir d’éventuelles difficultés numériques, telles que l’évaluation des dérivées, ou d’interface optimiseur-simulateur, de réduire le temps de calcul et de fournir une bonne initialisation à l’approche « feasible path ». Les deux outils développés visent à estimer (capteur logiciel), avec le maximum de précision, des grandeurs physiques mesurables ou non mesurables, les indicateurs d’état et de performance, et se doivent d’être fiable même dans le cas d’une mesure manquante et en présence de biais. Ces informations sur l’état et la performance du procédé constituent une aide à sa conduite et permettent d’estimer la marge opératoire pour assurer la sécurité. La méthodologie proposée a été validée sur des scénarios réalisés à partir de données industrielles de l’usine de La Hague, opérée par Orano, recyclant le combustible nucléaire usé. Le procédé PUREX réalise la co-décontamination et la séparation de l’uranium et du plutonium à l’aide de cycles d’extraction et de purification par solvant. Le CEA a développé et validé un modèle de connaissance implanté dans le simulateur PAREX. Ce simulateur est capable de représenter avec une grande précision le fonctionnement en régimes permanent et transitoire des étapes d’extraction et de lavage du procédé PUREX. En combinant la RD et le simulateur PAREX, l’outil permet de réduire les incertitudes des mesures et constitue un outil d’aide à la décision pour une conduite optimale et sûre du procédé
The process state is defined by the flux diagram that reaches the required performances, built thanks to the knowledge of the phenomenon at stake. Characteristic measurements of the process state can be highlighted and form the state indicators. The availability of a process simulatorallows the operating data and the indicator values to be linked. The process operation support uses the available measurements, such as operating parameters and state indicators. The main goal of operation is to stay as close as possible to the targeted process state, which is characterized by the key performance indicators (KPI). It is therefore essential to follow in real time the gap between the targeted and the real state. However, takinginto account the measurement uncertainties and the potential biases on the sensors, the use of raw measurements is not satisfactory and it is of first importance to filter and reconcile the measured physical values. Within the framework of online model based application and data reconciliation (DR), we focused on software sensors for state estimation and process performances. The aim is to build a smart operation support tool for complex process, based on the knowledge of the process operations and available information through reconciled measurements. The inventory and analysis of available data from the industrial units (position and type of sensors) allows, depending on the model, the process observability and redundancy evaluation. The use of the redundancy thanks to the DR increases the confidence in operational information and generates a set of consistent data, at least with mass balance and, depending on the model, with fundamental laws that govern the behavior of matter in physics and chemistry. Two formulations to solve the optimization problem are offered and compared: the first one stands on a feasible path approach, using a knowledge-based simulator for the DR and estimating the model parameters in real time in order to exploit the maximum amount of information available through the sensors ; the second one lies on a surrogate model and an unfeasible path approach in order to prevent potential numerical challenges in feasible path approach such as complex derivative evaluation, optimizing tool and simulator interface, high calculating time and need of good initialization. The two tools aim to estimate, with maximum precision, measured or nonmeasured physical quantities, state and key performance indicators, and need to be reliable, even in the case of a missing measurement and biased sensors. The knowledge of process state and performance is of valuable assistance for operations and help in the estimation of operating margins to guarantee the safety. The suggested methodology has been validated on different scenarios carried out with industrial data from La Hague Plant, managed by Orano, recycling the spent nuclear fuel. The PUREX process achieves the co-decontamination and separation of uranium and plutonium through solvent extraction and purification cycles. The CEA has developed and validated a knowledge-based model included in the PAREX simulator. It is capable of simulating the extraction and stripping operations used in the PUREX process, in steady state and transient regime. Combining DR and PAREX simulator, the tool reduces the measurement uncertainty and helps to support decision to strive towards the optimal and safest process operation
APA, Harvard, Vancouver, ISO, and other styles
40

Bonavero, Yoann. "Une approche basée sur les préférences et les méta-heuristiques pour améliorer l’accessibilité des pages Web pour les personnes déficientes visuelles." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS274/document.

Full text
Abstract:
Lorsque la vue, qui est un important moyen de communication, est altérée, alors l'acquisition de l'information s'en trouve modifiée, dégradée ou limitée. A l'ère du monde numérique, le Web regorge d'informations réparties sur différents sites et mises en forme par les développeurs et designers. De nombreuses pathologies visuelles peuvent entraîner des difficultés dans l'accès à ces informations. Au-delà même de ces informations, l'accès aux outils et services est lui aussi limité. Des difficultés dans la perception des couleurs, des taches dans le champ visuel ou un champ visuel réduit sont tout autant de sources de difficultés. Chaque personne a une vision qui lui est propre. Chez les personnes qui ont une basse vision, les pathologies donnent des évolutions spécifiques chez chacune d'entre elles. De plus les méthodes de compensation acquises sont différentes d'une personne à l'autre. Des outils d'assistance existent depuis de nombreuses années et tentent de répondre aux besoins des personnes ayant une basse vision en proposant des adaptations visuelles. Les principales limites de ces outils résident notamment dans le fait qu'ils ne sont pas en capacité de prendre en compte les besoins très spécifiques de chaque personne. Ces travaux de recherche se concentrent donc autour de l'analyse des besoins réels des utilisateurs et de l'élaboration d'une nouvelle approche qui se base sur les préférences personnelles de l'utilisateur. L'objectif final est d'automatiser la transformation des pages Web en fonction des préférences propres à un utilisateur pendant qu'il navigue sur le Web. Divers algorithmes ont été utilisés, notamment des algorithmes évolutionnaires, afin de réaliser des compromis entre les préférences de l'utilisateur et l'apparence originale de la page Web. La thèse développe de manière approfondie les principaux problèmes touchant les personnes en situation de basse vision et des éléments sur les modèles de couleurs et de contrastes. Puis elle présente un langage de modélisation des préférences basé sur la logique, une modélisation du problème comme un problème d'optimisation, des algorithmes de résolution, un démonstrateur, et des expérimentations sur des pages Web réelles
When the sight, which is the main communication way, is altered, then the information acquisition process is also modified, degraded or limited. In today's digital world, the Web is a wealth of information organized by designers and developers and available on different Websites. Many visual pathologies can lead to difficulties in accessing this information. Beyond this information, the access to the different tools and services is also affected. Difficulties in color perception, cloud-like white patches or dark areas in a visual field, or a reduced visual field are all sources of difficulties. Each person has a particular vision. Several persons with the same pathology may even have different visions. Several assistive tools have been proposed that apply visual adaptation, trying to meet the needs of people with low vision. Main limits of these tools are mainly the unability of taking into account the very specific needs of each person. These research works are focused on the real user's needs analysis and on making a new approach based on the personal user's preferences. The final target consists in automatizing the Web page transformation according to the specific preferences of a particular user. This transformation occurs along the navigation from page to page. Different algorithms have been used, especially evolutionary algorithms, in order to make tradeoffs between the user's preferences and the original appearance of the page. The thesis further develops main problems encountered by people with low vision and some notions on color models and contrast relations. After that, we present a preference modeling language based on logics, a modeling of the problem as an optimization problem, some resolution algorithms, a tool and experiments on several real Web pages
APA, Harvard, Vancouver, ISO, and other styles
41

Yousef, Soleiman. "Etude d’estimations d’erreur a posteriori et d’adaptivité basée sur des critères d’arrêt et raffinement de maillages pour des problèmes d’écoulements multiphasiques et thermiques : Application aux procédés de récupération assistée d’huile." Paris 6, 2013. http://www.theses.fr/2013PA066616.

Full text
Abstract:
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénérées multidimensionnelles modélisant des problèmes importants pour l'industrie. Les modèles considérés sont discrétisé en espace par une méthode de volume finis et la méthode d'Euler implicite en temps. Nous démontrons une borne supérieure d’une norme duale du résidu augmentée d'un terme qui tient compte de la non-conformité de la méthode de discrétisation, par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent: un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur d’une résolution algébrique du système linéarisé (par exemple la méthode GMRes), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. Enfin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Des tests numériques illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation, du nombre total des itérations de linéarisation et du nombre total des itérations du solveur algébrique sur des exemples réalistes d'ingénierie de réservoir
The goal of this thesis is the a posteriori error analysis and the conception of adaptive strategies based on stopping criteria and local mesh refinement. We treat a class of multi-dimensional degenerate parabolic equations which represent typical examples of industrial interest. The considered models are discretized by a finite volume scheme in space with the backward Euler temporal stepping. We prove un upper bound for a dual norm of the residual, augmented by a nonconformity evaluation term, by fully computable error estimators. These estimators include: an estimator associated to the linearization error, an estimator associated to the algebraic error, an estimator associated to the temporal error, and an estimator associated to the spatial error. Consequently, these estimators allow to formulate an adaptive resolution algorithm where the corresponding errors can be equilibrated. We also propose a strategy of local mesh reffinement. Finally, we prove the efficiency of our a posteriori estimates. A numerical test illustrates the efficiency of our estimates and the performance of the adaptive algorithm. In particular, a significant gain in terms of the number of mesh cells, the total number of the iterations of the linearization method, and the total number of algebraic solver iterations is achieved on several real-life reservoir engineering examples
APA, Harvard, Vancouver, ISO, and other styles
42

Stolle, Martin Tobias. "Vers le vol à voile longue distance pour drones autonomes." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0006.

Full text
Abstract:
Les petit drones à voilure fixe rendent services aux secteurs de la recherche, de l'armée et de l'industrie, mais souffrent toujours de portée et de charge utile limitées. Le vol thermique permet de réduire la consommation d'énergie. Cependant,sans télédétection d'ascendances, un drone ne peut bénéficier d'une ascendance qu'en la rencontrant par hasard. Dans cette thèse, un nouveau cadre pour le vol à voile longue distance autonome est élaboré, permettant à un drone planeur de localiser visuellement des ascendances sous-cumulus et d’en récolter l'énergie de manière efficace. S'appuyant sur le filtre de Kalman non parfumé, une méthode de vision monoculaire est établie pour l'estimation des paramètres d’ascendances. Sa capacité de fournir des estimations convergentes et cohérentes est évaluée par des simulations Monte Carlo. Les incertitudes de modèle, le bruit de traitement de l'image et les trajectoires de l'observateur peuvent dégrader ces estimés. Par conséquent, un deuxième axe de cette thèse est la conception d'un planificateur de trajectoire robuste basé sur des cartes d'ascendances. Le planificateur fait le compromis entre le temps de vol et le risque d’un atterrissage forcé dans les champs tout en tenant compte des incertitudes d'estimation dans le processus de prise de décision. Il est illustré que la charge de calcul du planificateur de trajectoire proposé est réalisable sur une plate-forme informatique peu coûteuse. Les algorithmes proposés d’estimation ainsi que de planification sont évalués conjointement dans un simulateur de vol à 6 axes, mettant en évidence des améliorations significatives par rapport aux vols à voile longue distance autonomes actuels
Small fixed-wing Unmanned Aerial Vehicles (UAVs) provide utility to research, military, and industrial sectors at comparablyreasonable cost, but still suffer from both limited operational ranges and payload capacities. Thermal soaring flight for UAVsoffers a significant potential to reduce the energy consumption. However, without remote sensing of updrafts, a glider UAVcan only benefit from an updraft when encountering it by chance. In this thesis, a new framework for autonomous cross-country soaring is elaborated, enabling a glider UAV to visually localize sub-cumulus thermal updrafts and to efficiently gain energy from them.Relying on the Unscented Kalman Filter, a monocular vision-based method is established, for remotely estimatingsub-cumulus updraft parameters. Its capability of providing convergent and consistent state estimates is assessed relyingon Monte Carlo Simulations. Model uncertainties, image processing noise, and poor observer trajectories can degrade theestimated updraft parameters. Therefore, a second focus of this thesis is the design of a robust probabilistic path plannerfor map-based autonomous cross-country soaring. The proposed path planner balances between the flight time and theoutlanding risk by taking into account the estimation uncertainties in the decision making process. The suggested updraftestimation and path planning algorithms are jointly assessed in a 6 Degrees Of Freedom simulator, highlighting significantperformance improvements with respect to state of the art approaches in autonomous cross-country soaring while it is alsoshown that the path planner is implementable on a low-cost computer platform
APA, Harvard, Vancouver, ISO, and other styles
43

Hu, Wei. "Identification de paramètre basée sur l'optimisation de l'intelligence artificielle et le contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire." Thesis, Ecole centrale de Lille, 2019. http://www.theses.fr/2019ECLI0008/document.

Full text
Abstract:
Cette thèse traite de l'identification des paramètres du point de vue de l'optimisation et du contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire (FOMASs) en tenant compte des retards, des perturbations externes, de la non-linéarité inhérente, des incertitudes des paramètres et de l'hétérogénéité dans le cadre d'une topologie de communication fixe non dirigée / dirigée. Plusieurs contrôleurs efficaces sont conçus pour réaliser avec succès le contrôle de suivi distribué des FOMASs dans différentes conditions. Plusieurs types d'algorithmes d'optimisation de l'intelligence artificielle et leurs versions modifiées sont appliquées pour identifier les paramètres inconnus des FOMASs avec une grande précision, une convergence rapide et une grande robustesse. Il est à noter que cette thèse fournit un lien prometteur entre la technique d'intelligence artificielle et le contrôle distribué
This thesis deals with the parameter identification from the viewpoint of optimization and distributed tracking control of fractional-order multi-agent systems (FOMASs) considering time delays, external disturbances, inherent nonlinearity, parameters uncertainties, and heterogeneity under fixed undirected/directed communication topology. Several efficient controllers are designed to achieve the distributed tracking control of FOMASs successfully under different conditions. Several kinds of artificial intelligence optimization algorithms andtheir modified versions are applied to identify the unknown parameters of the FOMASs with high accuracy, fast convergence and strong robustness. It should be noted that this thesis provides a promising link between the artificial intelligence technique and distributed control
APA, Harvard, Vancouver, ISO, and other styles
44

Bricola, Jean-Charles. "Estimation de cartes de profondeur à partir d’images stéréo et morphologie mathématique." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM046/document.

Full text
Abstract:
Cette thèse propose de nouvelles approches pour le calcul de cartes de profondeur associées à deux images stéréoscopiques.La difficulté du problème réside dans l'établissement de mises en correspondances entre les deux images stéréoscopiques. Cet établissement s'avère en effet incertain dans les zones de l'image qui sont homogènes, voire impossible en cas d'occultation.Afin de gérer ces deux problèmes, nos méthodes procèdent en deux étapes. Tout d'abord nous cherchons des mesures de profondeur fiables en comparant les deux images stéréoscopiques à l'aide de leurs segmentations associées. L'analyse des coûts de superpositions d'images, sur une base régionale et au travers d'échelles multiples, nous permet de réaliser des agrégations de coûts pertinentes, desquelles nous déduisons des mesures de disparités précises. De plus, cette analyse facilite la détection des zones de l'image de référence étant potentiellement occultées dans l’autre image de la paire stéréoscopique. Dans un deuxième temps, un mécanisme d'estimation se charge de trouver les profondeurs les plus plausibles, là où aucune mise en correspondance n'a pu être établie.L'ouvrage est scindé en deux parties : la première permettra au lecteur de se familiariser avec les problèmes fréquemment observés en analyse d'images stéréoscopiques. Il y trouvera également une brève introduction au traitement d'images morphologique. Dans une deuxième partie, nos opérateurs de calcul de profondeur sont présentés, détaillés et évalués
In this thesis, we introduce new approaches dedicated to the computation of depth maps associated with a pair of stereo images.The main difficulty of this problem resides in the establishment of correspondences between the two stereoscopic images. Indeed, it is difficult to ascertain the relevance of matches occurring in homogeneous areas, whilst matches are infeasible for pixels occluded in one of the stereo views.In order to handle these two problems, our methods are composed of two steps. First, we search for reliable depth measures, by comparing the two images of the stereo pair with the help of their associated segmentations. The analysis of image superimposition costs, on a regional basis and across multiple scales, allows us to perform relevant cost aggregations, from which we deduce accurate disparity measures. Furthermore, this analysis facilitates the detection of the reference image areas, which are potentially occluded in the other image of the stereo pair. Second, an interpolation mechanism is devoted to the estimation of depth values, where no correspondence could have been established.The manuscript is divided into two parts: the first will allow the reader to become familiar with the problems and issues frequently encountered when analysing stereo images. A brief introduction to morphological image processing is also provided. In the second part, our algorithms to the computation of depth maps are introduced, detailed and evaluated
APA, Harvard, Vancouver, ISO, and other styles
45

Charfi, Imen. "Détection automatique de chutes de personnes basée sur des descripteurs spatio-temporels : définition de la méthode, évaluation des performances et implantation temps-réel." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00959850.

Full text
Abstract:
Nous proposons une méthode supervisée de détection de chutes de personnes en temps réel, robusteaux changements de point de vue et d'environnement. La première partie consiste à rendredisponible en ligne une base de vidéos DSFD enregistrées dans quatre lieux différents et qui comporteun grand nombre d'annotations manuelles propices aux comparaisons de méthodes. Nousavons aussi défini une métrique d'évaluation qui permet d'évaluer la méthode en s'adaptant à la naturedu flux vidéo et la durée d'une chute, et en tenant compte des contraintes temps réel. Dans unsecond temps, nous avons procédé à la construction et l'évaluation des descripteurs spatio-temporelsSTHF, calculés à partir des attributs géométriques de la forme en mouvement dans la scène ainsique leurs transformations, pour définir le descripteur optimisé de chute après une méthode de sélectiond'attributs. La robustesse aux changements d'environnement a été évaluée en utilisant les SVMet le Boosting. On parvient à améliorer les performances par la mise à jour de l'apprentissage parl'intégration des vidéos sans chutes enregistrées dans l'environnement définitif. Enfin, nous avonsréalisé, une implantation de ce détecteur sur un système embarqué assimilable à une caméra intelligentebasée sur un composant SoC de type Zynq. Une démarche de type Adéquation AlgorithmeArchitecture a permis d'obtenir un bon compromis performance de classification/temps de traitement
APA, Harvard, Vancouver, ISO, and other styles
46

Rondon, Sallan Eduardo. "Navigation d'un véhicule aérien par flux optique." Compiègne, 2010. http://www.theses.fr/2010COMP1912.

Full text
Abstract:
Cette thèse s'est concentrée dans la conception des stratégies de navigation basées sur la vision, pour un véhicule aérien a voilure tournante dote de quatre moteurs. La première étape de cette étude a été la conception d'un véhicule aérien parfaitement adapte aux exigences relatives a la navigation basée sur la vision. Ensuite, les problématiques liées a la stabilisation et la régulation de la vitesse ont été abordées. A cette fin, nous avons développé un système de vision qui permet d'estimer l'altitude, la position latérale et la vitesse d'avancement du véhicule. Nous montrons que l'information visuelle permet la construction des stratégies de commande adaptées à différents types de modes de vol. Une stratégie hiérarchique a été élaborée et implémentée. Les résultats expérimentaux montrent que l'hélicoptère est capable de réaliser des vols autonomes, validant ainsi les algorithmes de vision et la loi de commande. Toutefois, pour être considère comme totalement autonome, le véhicule aérien doit être capable de surmonter tous les changements inattendus dans son environnement. Ceci peut être réalise grâce a des fonctions très spécifiques qui prennent en charge le comportement réactif du véhicule. L'approche proposée vise à détecter et éviter les obstacles frontaux utilisant des propriétés connues du flux optique, et en tirant parti de la capacité de vol stationnaire du drone. Une machine d'état est implémentée. Cette solution a été choisie pour équiper le drone avec toutes les réactions nécessaires a la navigation en intérieur. Nous montrons comment des transitions en douceur peuvent être atteintes grâce a la diminution de la vitesse du véhicule proportionnellement à sa distance de l'obstacle
This thesis is focused in the design of visual strategies to ensure the autonomousnavigation of a quad-rotor rotary wing UAV. The first step on thisstudy was to design a quad-rotor perfectly suited for the requirements related to the visual navigation such as fast rotational dynamics and sufficient payload capabilities. Then the stabilization and the speed regulation problem were addressed. For this purpose, we have developed a vision system which estimates the altitude, the lateral position and the forward speed of the engine during flights. We show that the visual information allows the construction of control strategies for different kinds of flying modes: hover flight, forward flight at constant speed. A hierarchical control strategy is developed and implemented. An experimental autonomous flight was successfully achieved, validating the visual algorithm and the control law. However, in order to be completely autonomous the robot must be capable to overcome all unexpected changes in its environment. To achieve the required functions, a reactive behavior has been built. The proposed approach aims to detect and avoid frontal obstacles using known properties of the optical flow and by taking advantage of the capability of stationary flight of the rotorcraft. A state machine is proposed as a solution to equip the UAV with all reactions necessary for indoor navigation. We show how smooth transitions can be achieved by decreasing the speed of the vehicle proportionally to the distance to an obstacle and by brief instants of stationary flight
APA, Harvard, Vancouver, ISO, and other styles
47

Chen, Kui. "Modeling and estimation of degradation for PEM fuel cells in real conditions of use for mobile applications." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA022.

Full text
Abstract:
La PEMFC sont une source d'énergie propre en raison de ses avantages comme une efficacité énergétique élevée, un faible bruit, une température de fonctionnement faible et zéro polluant. Cependant, la courte durée de vie causée par la dégradation a un grand impact sur l'intégration de la PEMFC dans les systèmes de transport. Le pronostic et la gestion de la santé sont un moyen important pour améliorer les performances et la durée de vie de la PEMFC. Cette thèse présente cinq méthodes de pronostic de dégradation pour la PEMFC. Elle examine l'influence des principales conditions de fonctionnement, incluant le courant de charge, la température, la pression d'hydrogène et l'humidité relative, sur la dégradation de la PEMFC. La dégradation globale et les phénomènes réversibles sont analysés en se basant sur les données numériques issues de trois expériences de PEMFC menées dans des conditions différentes d'usage (une flotte de véhicules à PEMFC et deux bancs de test de type laboratoire). Un premier modèle basé sur l'algorithme de filtre de Kalman UKF (Unscented Kalman Filter) et le modèle de dégradation de la tension est proposé pour prédire la dégradation de la PEMFC dans les véhicules électriques à pile à combustible. Puis, la méthode hybride basée sur l'analyse des ondelettes, la machine d'apprentissage extrême et l'algorithme génétique est proposée pour construire un deuxième modèle de dégradation de la PEMFC. Pour prévoir la dégradation du PEMFC avec des données de expérimentales limitées, la méthode améliorée basée sur sur la combinaison du modèle des réseaux de neurones gris, l'optimisation de l'essaim de particules et les méthodes de fenêtre mobile, est utilisée pour développer le troisième modèle. La quatrième contribution est un modèle de pronostic de vieillissement de la PEMFC fonctionnant dans différentes conditions, en utilisant le réseau neuronal de rétro-propagation et l'algorithme évolutif. Enfin, un pronostic de dégradation de la PEMFC basé sur le réseau neuronal en ondelettes et l'algorithme de recherche du coucou est proposé pour prédire la durée de vie restante de la PEMFC
Proton Exchange Membrane Fuel Cells (PEMFC) is a clean energy source because of the merits like high energy efficiency, low noise, low operating temperature, and zero pollutants. However, the short lifetime caused by degradation has a great impact on the integration of PEMFC in the transportation systems. Prognostics and health management is an important way to improve performance and remaining useful life for PEMFC. This thesis proposes five degradation prognosis methods for PEMFC. The thesis considers the influence of main operating conditions including the load current, temperature, hydrogen pressure, and relative humidity on the degradation of PEMFC. The global degradation trend and reversible phenomena are analyzed on the basis of data from three PEMFC experiments conducted under different conditions of use (a fleet of 10 PEMFC vehicles and two laboratory test benches). First, the model-driven method based on unscented Kalman Filter algorithm and voltage degradation model is presented to predict the degradation of PEMFC in fuel cell electric vehicles. Then, the hybrid method based on the wavelet analysis, extreme learning machine and genetic algorithm is proposed to build the degradation model of PEMFC. To forecast the degradation of PEMFC with limited experimental data, the improved data-driven method based on the combination of the grey neural network model, the particle swarm optimization and the moving window methods, is used for developing the third model. The fourth contribution is an aging prognosis model of PEMFC operating in different conditions, by using the Backpropagation neural network and evolutionary algorithm. Finally, a degradation prognosis of PEMFC based on wavelet neural network and cuckoo search algorithm is proposed to predict the remaining useful life of PEMFC
APA, Harvard, Vancouver, ISO, and other styles
48

Mahdoui, Chedly Nesrine. "Communicating multi-UAV system for cooperative SLAM-based exploration." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2447/document.

Full text
Abstract:
Dans la communauté robotique aérienne, un croissant intérêt pour les systèmes multirobot (SMR) est apparu ces dernières années. Cela a été motivé par i) les progrès technologiques, tels que de meilleures capacités de traitement à bord des robots et des performances de communication plus élevées, et ii) les résultats prometteurs du déploiement de SMR tels que l’augmentation de la zone de couverture en un minimum de temps. Le développement d’une flotte de véhicules aériens sans pilote (UAV: Unmanned Aerial Vehicle) et de véhicules aériens de petite taille (MAV: Micro Aerial Vehicle) a ouvert la voie à de nouvelles applications à grande échelle nécessitant les caractéristiques de tel système de systèmes dans des domaines tels que la sécurité, la surveillance des catastrophes et des inondations, la recherche et le sauvetage, l’inspection des infrastructures, et ainsi de suite. De telles applications nécessitent que les robots identifient leur environnement et se localisent. Ces tâches fondamentales peuvent être assurées par la mission d’exploration. Dans ce contexte, cette thèse aborde l’exploration coopérative d’un environnement inconnu en utilisant une équipe de drones avec vision intégrée. Nous avons proposé un système multi-robot où le but est de choisir des régions spécifiques de l’environnement à explorer et à cartographier simultanément par chaque robot de manière optimisée, afin de réduire le temps d’exploration et, par conséquent, la consommation d’énergie. Chaque UAV est capable d’effectuer une localisation et une cartographie simultanées (SLAM: Simultaneous Localization And Mapping) à l’aide d’un capteur visuel comme principale modalité de perception. Pour explorer les régions inconnues, les cibles – choisies parmi les points frontières situés entre les zones libres et les zones inconnues – sont assignées aux robots en considérant un compromis entre l’exploration rapide et l’obtention d’une carte détaillée. À des fins de prise de décision, les UAVs échangent habituellement une copie de leur carte locale, mais la nouveauté dans ce travail est d’échanger les points frontières de cette carte, ce qui permet d’économiser la bande passante de communication. L’un des points les plus difficiles du SMR est la communication inter-robot. Nous étudions cette partie sous les aspects topologiques et typologiques. Nous proposons également des stratégies pour faire face à l’abandon ou à l’échec de la communication. Des validations basées sur des simulations étendues et des bancs d’essai sont présentées
In the aerial robotic community, a growing interest for Multi-Robot Systems (MRS) appeared in the last years. This is thanks to i) the technological advances, such as better onboard processing capabilities and higher communication performances, and ii) the promising results of MRS deployment, such as increased area coverage in minimum time. The development of highly efficient and affordable fleet of Unmanned Aerial Vehicles (UAVs) and Micro Aerial Vehicles (MAVs) of small size has paved the way to new large-scale applications, that demand such System of Systems (SoS) features in areas like security, disaster surveillance, inundation monitoring, search and rescue, infrastructure inspection, and so on. Such applications require the robots to identify their environment and localize themselves. These fundamental tasks can be ensured by the exploration mission. In this context, this thesis addresses the cooperative exploration of an unknown environment sensed by a team of UAVs with embedded vision. We propose a multi-robot framework where the key problem is to cooperatively choose specific regions of the environment to be simultaneously explored and mapped by each robot in an optimized manner in order to reduce exploration time and, consequently, energy consumption. Each UAV is able to performSimultaneous Localization And Mapping (SLAM) with a visual sensor as the main input sensor. To explore the unknown regions, the targets – selected from the computed frontier points lying between free and unknown areas – are assigned to robots by considering a trade-off between fast exploration and getting detailed grid maps. For the sake of decision making, UAVs usually exchange a copy of their local map; however, the novelty in this work is to exchange map frontier points instead, which allow to save communication bandwidth. One of the most challenging points in MRS is the inter-robot communication. We study this part in both topological and typological aspects. We also propose some strategies to cope with communication drop-out or failure. Validations based on extensive simulations and testbeds are presented
APA, Harvard, Vancouver, ISO, and other styles
49

Nguyen, Van Toi. "Visual interpretation of hand postures for human-machine interaction." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS035/document.

Full text
Abstract:
Aujourd'hui, les utilisateurs souhaitent interagir plus naturellement avec les systèmes numériques. L'une des modalités de communication la plus naturelle pour l'homme est le geste de la main. Parmi les différentes approches que nous pouvons trouver dans la littérature, celle basée sur la vision est étudiée par de nombreux chercheurs car elle ne demande pas de porter de dispositif complémentaire. Pour que la machine puisse comprendre les gestes à partir des images RGB, la reconnaissance automatique de ces gestes est l'un des problèmes clés. Cependant, cette approche présente encore de multiples défis tels que le changement de point de vue, les différences d'éclairage, les problèmes de complexité ou de changement d'environnement. Cette thèse propose un système de reconnaissance de gestes statiques qui se compose de deux phases : la détection et la reconnaissance du geste lui-même. Dans l'étape de détection, nous utilisons un processus de détection d'objets de Viola Jones avec une caractérisation basée sur des caractéristiques internes d'Haar-like et un classifieur en cascade AdaBoost. Pour éviter l'influence du fond, nous avons introduit de nouvelles caractéristiques internes d'Haar-like. Ceci augmente de façon significative le taux de détection de la main par rapport à l'algorithme original. Pour la reconnaissance du geste, nous avons proposé une représentation de la main basée sur un noyau descripteur KDES (Kernel Descriptor) très efficace pour la classification d'objets. Cependant, ce descripteur n'est pas robuste au changement d'échelle et n'est pas invariant à l'orientation. Nous avons alors proposé trois améliorations pour surmonter ces problèmes : i) une normalisation de caractéristiques au niveau pixel pour qu'elles soient invariantes à la rotation ; ii) une génération adaptative de caractéristiques afin qu'elles soient robustes au changement d'échelle ; iii) une construction spatiale spécifique à la structure de la main au niveau image. Sur la base de ces améliorations, la méthode proposée obtient de meilleurs résultats par rapport au KDES initial et aux descripteurs existants. L'intégration de ces deux méthodes dans une application montre en situation réelle l'efficacité, l'utilité et la faisabilité de déployer un tel système pour l'interaction homme-robot utilisant les gestes de la main
Nowadays, people want to interact with machines more naturally. One of the powerful communication channels is hand gesture. Vision-based approach has involved many researchers because this approach does not require any extra device. One of the key problems we need to resolve is hand posture recognition on RGB images because it can be used directly or integrated into a multi-cues hand gesture recognition. The main challenges of this problem are illumination differences, cluttered background, background changes, high intra-class variation, and high inter-class similarity. This thesis proposes a hand posture recognition system consists two phases that are hand detection and hand posture recognition. In hand detection step, we employed Viola-Jones detector with proposed concept Internal Haar-like feature. The proposed hand detection works in real-time within frames captured from real complex environments and avoids unexpected effects of background. The proposed detector outperforms original Viola-Jones detector using traditional Haar-like feature. In hand posture recognition step, we proposed a new hand representation based on a good generic descriptor that is kernel descriptor (KDES). When applying KDES into hand posture recognition, we proposed three improvements to make it more robust that are adaptive patch, normalization of gradient orientation in patches, and hand pyramid structure. The improvements make KDES invariant to scale change, patch-level feature invariant to rotation, and final hand representation suitable to hand structure. Based on these improvements, the proposed method obtains better results than original KDES and a state of the art method
APA, Harvard, Vancouver, ISO, and other styles
50

Ben, Abdallah Nadia. "Modeling sea-level rise uncertainties for coastal defence adaptation using belief functions." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1616.

Full text
Abstract:
L’adaptation côtière est un impératif pour faire face à l’élévation du niveau marin,conséquence directe du réchauffement climatique. Cependant, la mise en place d’actions et de stratégies est souvent entravée par la présence de diverses et importantes incertitudes lors de l’estimation des aléas et risques futurs. Ces incertitudes peuvent être dues à une connaissance limitée (de l’élévation du niveau marin futur par exemple) ou à la variabilité naturelle de certaines variables (les conditions de mer extrêmes). La prise en compte des incertitudes dans la chaîne d’évaluation des risques est essentielle pour une adaptation efficace.L’objectif de ce travail est de proposer une méthodologie pour la quantification des incertitudes basée sur les fonctions de croyance – un formalisme de l’incertain plus flexible que les probabilités. Les fonctions de croyance nous permettent de décrire plus fidèlement l’information incomplète fournie par des experts (quantiles,intervalles, etc.), et de combiner différentes sources d’information. L’information statistique peut quand à elle être décrite par de fonctions des croyance définies à partir de la fonction de vraisemblance. Pour la propagation d’incertitudes, nous exploitons l’équivalence mathématique entre fonctions de croyance et intervalles aléatoires, et procédons par échantillonnage Monte Carlo. La méthodologie est appliquée dans l’estimation des projections de la remontée du niveau marin global à la fin du siècle issues de la modélisation physique, d’élicitation d’avis d’experts, et de modèle semi-empirique. Ensuite, dans une étude de cas, nous évaluons l’impact du changement climatique sur les conditions de mers extrêmes et évaluons le renforcement nécessaire d’une structure afin de maintenir son niveau de performance fonctionnelle
Coastal adaptation is an imperative to deal with the elevation of the global sealevel caused by the ongoing global warming. However, when defining adaptationactions, coastal engineers encounter substantial uncertainties in the assessment of future hazards and risks. These uncertainties may stem from a limited knowledge (e.g., about the magnitude of the future sea-level rise) or from the natural variabilityof some quantities (e.g., extreme sea conditions). A proper consideration of these uncertainties is of principal concern for efficient design and adaptation.The objective of this work is to propose a methodology for uncertainty analysis based on the theory of belief functions – an uncertainty formalism that offers greater features to handle both aleatory and epistemic uncertainties than probabilities.In particular, it allows to represent more faithfully experts’ incomplete knowledge (quantiles, intervals, etc.) and to combine multi-sources evidence taking into account their dependences and reliabilities. Statistical evidence can be modeledby like lihood-based belief functions, which are simply the translation of some inference principles in evidential terms. By exploiting the mathematical equivalence between belief functions and random intervals, uncertainty can be propagated through models by Monte Carlo simulations. We use this method to quantify uncertainty in future projections of the elevation of the global sea level by 2100 and evaluate its impact on some coastal risk indicators used in coastal design. Sea-level rise projections are derived from physical modelling, expert elicitation, and historical sea-level measurements. Then, within a methodologically-oriented case study,we assess the impact of climate change on extreme sea conditions and evaluate there inforcement of a typical coastal defence asset so that its functional performance is maintained
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography