Dissertations / Theses on the topic 'Localisation 3D en temps réel'

To see the other types of publications on this topic, follow the link: Localisation 3D en temps réel.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Localisation 3D en temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Decrouez, Marion. "Localisation et cartographie visuelles simultanées en milieu intérieur et en temps réel." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse s'inscrit dans le domaine de la vision par ordinateur. Il s'agit, dans un environnement intérieur inconnu, partiellement connu ou connu de trouver la position et l'orientation d'une camera mobile en temps réel à partir d'une séquence vidéo prise par cette même camera. Le sujet implique également la reconstruction 3D de l'environnement. Les algorithmes de vision seront implémentés et testés sur des plateformes massivement parallèles. Processing the video sequence of a indoor camera in motion we have to find the position and angle of the camera in real time. We will use a single prime lens camera. It may involve an unknown, partially known or well known environment. A big part of the computation is the 3D reconstruction of the scene. The algorithms used to locate the camera will be implemented and tested on GPU
In this thesis, we explore the problem of modeling an unknown environment using monocular vision for localization applications. We focus in modeling dynamic indoor environments. Many objects in indoor environments are likely to be moved. These movements significantly affect the structure and appearance of the environment and disrupt the existing methods of visual localization. We present in this work a new approach for modeling the environment and its evolution with time. We define explicitly the scene as a static structure and a set of dynamic objects. The object is defined as a rigid entity that a user can take, move and that is visually detectable. First, we show how to automatically discover new objects in a dynamic environment. Existing methods of visual localization simply ignore the inconsistencies due to changes in the scene. We aim to analyze these changes to extract additional information. Without any prior knowledge, an object is a set of points with coherent motion relative to the static structure of the scene. We combine two methods of visual localization to compare various explorations in the same environment taken at different time. The comparison enables to detect objects that have moved between the two shots. For each object, a geometric model and an appearance model are learned. Moreover, we extend the scene model while updating the metrical map and the topological map of the static structure of the environment. Object discovery using motion is based on a new algorithm of multiple structures detection in an image pair. Given a set of correspondences between two views, the method based on RANSAC extracts the different structures corresponding to different model parameterizations seen in the data. The method is applied to homography estimation to detect planar structures and to fundamental matrix estimation to detect structures that have been shifted one from another. Our approach for dynamic scene modeling is applied in a new formulation of place recognition to take into account the presence of dynamic objects in the environment. The model of the place consists in an appearance model of the static structure observed in that place. An object database is learned from previous observations in the environment with the method of object discovery using motion. The place recognition we propose detects the dynamic objects seen in the place and rejects the false detection due to these objects. The different methods described in this dissertation are tested on synthetic and real data. Qualitative and quantitative results are presented throughout the dissertation
2

Abuhadrous, Iyad. "Système embarqué temps réel de localisation et de modélisation 3D par fusion multi-capteur." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude va se focaliser sur trois aspects. Dans un premier temps, un effort sera porté sur l'aspect "localisation précise" du véhicule en mouvement. Pour cela, il est nécessaire de se pencher sur l'intégration et le traitement de l'information issue de systèmes hétérogènes de navigation: GPS et centrale inertielle (INS) auxquels sera rajoutée ensuite l'odométrie. La raison de cette intégration est d'exploiter les avantages de chacun des systèmes utilisés. L'intégration utilise un filtrage numérique pour procéder à une compensation des erreurs en position, vitesse, et en attitude issues de chaque capteur. L'accent n'a pas seulement été mis sur l'intégration, mais aussi sur les notions de précision des résultats. Dans un deuxième temps, nous allons nous intéresser à la fois à la validation quantitative et qualitative des résultats et à l'élaboration d'une application exploitant notre travail. Les erreurs du système sont comparées avec une trajectoire de référence. Nous avons choisi de réaliser un système de numérisation tridimensionnelle de l'environnement couplé à un système de modélisation adapté au type d'environnement. L'étude se penchera sur le capteur d'acquisition de données télémétriques et son intégration à bord du véhicule. Un intérêt particulier est porté sur la qualité et les imprécisions des données retournées par le télémètre. L'acquisition des données se fera au vol et pendant le déplacement du véhicule. Enfin, le modèle obtenu sera exploité, de deux manières: la constitution d'un modèle géométrique et topologique précis puis l'extraction d'informations sémantiques du modèle (extraction de la route ou des obstacles fixes, identifications d'amers, caractérisation de la route, etc.).
3

Mouragnon, Etienne. "Reconstruction 3D et localisation simultanée de caméras mobiles : une approche temps-réel par ajustement de faisceaux local." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00925661.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de la reconstruction 3D à partir d'une séquence d'images acquise par une caméra en mouvement est un sujet important dans le domaine de la vision par ordinateur. Ce travail de thèse présente une méthode qui permet d'estimer conjointement des points 3D de la scène filmée et le mouvement de la caméra en combinant la précision des méthodes "horsligne" (basées sur une optimisation globale de tous les paramètres par ajustement de faisceaux) et la vitesse de calcul des méthodes incrémentales. La nouvelle approche est considérée comme une accélération des techniques classiques de reconstruction 3D qui utilisent l'ajustement de faisceaux, permettant ainsi de traiter de longues séquences vidéos. L'algorithme développé peut être résumé de la façon suivante : détection de points d'intérêt dans les images, mise en correspondance de ces points et souséchantillonnage temporel de la vidéo. En effet, seul un sousensemble d'images dites "images clef" est sélectionné pour la reconstruction des points 3D alors que la localisation de la caméra est calculée pour chaque image. Le point clef de l'approche est l'ajustement de faisceaux local : les paramètres de la reconstruction sont affinés sur la fin de la séquence uniquement, à chaque fois qu'une image est choisie comme nouvelle image clef. La méthode, initialement prévue pour les caméras perspectives, a ensuite été généralisée de manière à rendre possible l'utilisation d'autres types de caméras, comme les caméras catadioptriques ou encore les paires rigides de caméras. Les résultats obtenus montrent que la précision atteinte est du même ordre que celle des méthodes par optimisation globale, avec des temps de calcul très réduits, ce qui permet de viser des applications d'odométrie visuelle temps réel pour la robotique mobile ou l'aide à la conduite en automobile. Realtime
4

Mouragnon, Etienne. "Reconstruction 3D et localisation simultanée de caméras mobiles : une approche temps-réel par ajustement de faisceaux local." Phd thesis, Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de la reconstruction 3D à partir d'une séquence d'images acquise par une caméra en mouvement est un sujet important dans le domaine de la vision par ordinateur. Ce travail de thèse présente une méthode qui permet d'estimer conjointement des points 3D de la scène filmée et le mouvement de la caméra en combinant la précision des méthodes "hors-ligne" (basées sur une optimisation globale de tous les paramètres par ajustement de faisceaux) et la vitesse de calcul des méthodes incrémentales. La nouvelle approche est considérée comme une accélération des techniques classiques de reconstruction 3D qui utilisent l'ajustement de faisceaux, permettant ainsi de traiter de longues séquences vidéos. L'algorithme développé peut être résumé de la façon suivante : détection de points d'intérêt dans les images, mise en correspondance de ces points et sous-échantillonage temporel de la vidéo. En effet, seul un sous-ensemble d'images dites "images clefs" est sélectionné pour la reconstruction des points 3D alors que la localisation de la caméra est calculée pour chaque image. Le point clef de l'approche est l'ajustement de faisceaux local : les paramètres de la reconstruction sont affinés sur la fin de la séquence uniquement, à chaque fois qu'une image est choisie comme nouvelle image clef. La méthode, initialement prévue pour les caméras perspectives, a été généralisée de manière à rendre possible l'utilisation d'autres types de caméras, comme les caméras catadioptriques ou encore les paires rigides de caméras. Les résultats obtenus montrent que la précision atteinte est du même ordre que celle des méthodes par optimisation globale, avec des temps de calcul très réduits, ce qui permet de viser des applications d'odométrie visuelle temps-réel pour la robotique mobile ou l'aide à la conduite en automobile
5

Picard, Quentin. "Proposition de mécanismes d'optimisation des données pour la perception temps-réel dans un système embarqué hétérogène." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des systèmes autonomes engendre des besoins en perception de l'environnement de plus en plus élevés dans les systèmes électroniques embarqués. Les voitures autonomes, les drones, ou encore les casques à réalité mixte présentent des facteurs de forme limités et un budget de puissance énergétique restreint pour les performances en temps-réel. Par exemple, les cas applicatifs cités ont un budget compris entre 300W-10W, 15W-10W et 10W-10mW respectivement. La thèse se place dans le domaine des systèmes autonomes et mobiles ayant un budget de consommation de 10mW à 15W avec l'utilisation de capteurs d'images et de la centrale inertielle (IMU). La méthode Simultaneous Localization And Mapping (SLAM) fournit aux systèmes autonomes et mobiles une perception précise et robuste de l'environnement en temps-réel et sans connaissances préalables. La thèse a pour objectif de répondre à la problématique de l'exécution temps-réel du système SLAM dans son ensemble composé de fonctions de perception avancées allant de la localisation à la reconstruction 3D sur du matériel à ressources restreintes. Dans ce cadre, deux principales questions sont posées pour répondre aux défis de l'état de l'art. Comment réduire les besoins en ressources de ces fonctions de perception ? Quel est le partitionnement de la chaîne de traitement SLAM pour le système hétérogène intégrant plusieurs unités de calcul allant du circuit intégré au capteur d'image, au traitement proche capteur (FPGA) et dans la plateforme embarquée (ARM, GPU embarqué) ?. La première question abordée dans la thèse concerne le besoin de réduire les ressources utilisées par la chaîne de traitement SLAM, de la sortie du capteur à la reconstruction 3D. Dans ce sens, les travaux détaillés dans le manuscrit apportent deux principales contributions. La première présente le traitement dans le circuit intégré au capteur en impactant les caractéristiques de l'image grâce à la réduction de la dynamique. La seconde impacte le pilotage du flux d'image envoyé dans la chaîne de traitement SLAM avec un traitement proche capteur. La première contribution vise à réduire l'empreinte mémoire des algorithmes SLAM en évaluant l'impact de la réduction de la dynamique du pixel sur la précision et la robustesse de la localisation et la reconstruction 3D temps-réel. Les expérimentations menées ont montré que l'on peut réduire la donnée d'entrée jusqu'à 75% correspondant à moins de 2 bits par pixel tout en obtenant une précision similaire à la référence 8 bits par pixel. Ces résultats ont été obtenus en évaluant la précision et la robustesse de quatre algorithmes SLAM différents sur deux bases de données. La seconde contribution vise à réduire la quantité de données injectée dans le SLAM par le filtrage adaptatif qui est la stratégie de décimation pour contrôler le flux d'entrée des images. Le déclenchement des images provenant du capteur est initialement à un flux constant (20 images par seconde). Cela implique une consommation d'énergie, de mémoire, de bande passante et augmente la complexité calculatoire. Pouvons-nous réduire cette quantité de données à traiter ? Dans le cadre du SLAM, la précision et le nombre de calculs à effectuer dépendent fortement du mouvement du système. Grâce à l'IMU qui fournit les accélérations linéaires et angulaires, les données sont injectées en fonction du mouvement du système. Ces images clés sont obtenues grâce à la méthode de filtrage adaptatif (AF). Bien que les résultats dépendent de la difficulté des bases de données choisies, les expérimentations menées ont montré que l'AF permet de décimer jusqu'à 80% des images tout en assurant une erreur de localisation faible et similaire à la référence. L'étude de l'impact mémoire dans le contexte embarqué montre que le pic de consommation est réduit jusqu'à 92%
The development of autonomous systems has an increasing need for perception of the environment in embedded systems. Autonomous cars, drones, mixed reality devices have limited form factor and a restricted budget of power consumption for real-time performances. For instance, those use cases have a budget in the range of 300W-10W, 15W-10W and 10W-10mW respectively. This thesis is focused on autonomous and mobile systems with a budget of 10mW to 15W with the use of imager sensors and the inertial measurement unit (IMU). Simultaneous Localization And Mapping (SLAM) provides accurate and robust perception of the environment in real-time without prior knowledge for autonomous and mobile systems. The thesis aims at the real-time execution of the whole SLAM system composed of advanced perception functions, from localization to 3D reconstruction, with restricted hardware resources. In this context, two main questions are raised to answer the challenges of the literature. How to reduce the resource requirements of advanced perception functions? What is the SLAM pipeline partitioning for the heterogeneous system that integrates several computing units, from the embedded chip in the imager, to the near-sensor processing (FPGA) and in the embedded platform (ARM, embedded GPU)?. The first issue addressed in the thesis is about the need to reduce the hardware resources used by the SLAM pipeline, from the sensor output to the 3D reconstruction. In this regard, the work described in the manuscript provides two main contributions. The first one presents the processing in the embedded chip with an impact on the image characteristics by reducing the dynamic range. The second has an impact on the management of the image flow injected in the SLAM pipeline with a near-sensor processing. The first contribution aims at reducing the memory footprint of the SLAM algorithms with the evaluation of the pixel dynamic reduction on the accuracy and robustness of real-time localization and 3D reconstruction. The experiments show that we can reduce the input data up to 75% corresponding to 2 bits per pixel while maintaining a similar accuracy than the baseline 8 bits per pixel. Those results have been obtained with the evaluation of the accuracy and robustness of four SLAM algorithms on two databases. The second contribution aims at reducing the amount of data injected in SLAM with a decimation strategy to control the input frame rate, called the adaptive filtering. Data are initially injected in constant rate (20 frames per second). This implies a consumption of energy, memory, bandwidth and increases the complexity of calculation. Can we reduce this amount of data ? In SLAM, the accuracy and the number of operations depend on the movement of the system. With the linear and angular accelerations from the IMU, data are injected based on the movement of the system. Those key images are injected with the adaptive filtering approach (AF). Although the results depend on the difficulty of the chosen database, the experiments describe that the AF allows the decimation of up to 80% of the images while maintaining low localization and reconstruction errors similar to the baseline. This study shows that in the embedded context, the peak memory consumption is reduced up to 92%
6

Loesch, Angélique. "Localisation d'objets 3D industriels à l'aide d'un algorithme de SLAM contraint au modèle." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un besoin applicatif existe en terme de localisation 3D d’objets par vision. Cette technologie devient en effet de plus en plus populaire dans le milieu industriel où elle peut être utile lors de contrôle qualité, de robotisation de tâches ou encore d’aide à la maintenance par Réalité Augmentée. Néanmoins, le déploiement de telles applications est actuellement limité en raison de la difficulté à allier qualité de localisation, facilité de mise en oeuvre et généricité de la solution. En effet, la majorité des solutions implique : soit des étapes de mise en oeuvre complexes comme avec l’installation de capteurs de mouvement ou une préparation supervisée du modèle CAO; soit un manque de précision de la localisation dans le cadre de certaines applications nécessitant de prendre en compte des mouvements de fortes amplitudes de la caméra (provoquant du flou de bouger et des tremblements dans le flux vidéo) ainsi que des occultations partielles ou totales de l’objet ; soit enfin une restriction sur la nature de l’objet, celui-ci devant être texturé, de petite taille ou encore polyédrique pour avoir une bonne localisation. La plupart des solutions de localisation existantes correspondent à des approches de suivi basé modèle. Cette méthode consiste à estimer la pose relative entre la caméra et l’objet d’intérêt par mises en correspondance de primitives 3D extraites du modèle avec des primitives 2D extraites d’images d’un flux vidéo. Pour autant, cette approche atteint ses limites lorsque l’objet est difficilement observable dans l’image.Afin d’améliorer la localisation lorsque l’application concerne un objet fixe, de récentes solutions se sont appuyées en complément des primitives du modèle, sur des primitives de l’environnement reconstruites au cours du processus de localisation. Ces approches combinent algorithmes de SLAM (Simultaneous Localization And Mapping) et de suivi d’objet basé contours en utilisant les informations du modèle comme contrainte dans le processus d’optimisation du SLAM. Pour cela, un terme d’erreur est ajouté à la fonction de coût classique.Celui-ci mesure l’erreur de re-projection entre des primitives 3D issues des arêtes franches du modèle et les points de contour 2D dans l’image qui leur sont associés. L’ajout de cette contrainte permet d’exprimer la localisation du SLAM dans le repère de l’objet d’intérêt tout en réduisant sa dérive. Les solutions de SLAM contraint au modèle n’exploitant cependant que les contours francs du modèle, ne sont pas génériques et ne permettent de localiser que des objets polyédriques. De plus, l’ajout de cette contrainte entraîne une forte augmentation de la consommation mémoire, les images de contours nécessaires à l’étape de mise en correspondance devant être conservées.Les travaux présentés dans ce mémoire de thèse visent à fournir une solution répondant simultanément à l’ensemble des besoins concernant la facilité de déploiement, la qualité de localisation et la généricité sur la nature des objets suivis. Aussi, notre solution basée sur un algorithme de SLAM visuel contraint basé images clés, se restreint-elle au seul usage d’une caméra couleur, les caméras RGBD impliquant généralement une limite sur le volume, la nature réflective ou absorbante de l’objet, et sur la luminosité de son environnement. Cette étude est en outre restreinte à la seule exploitation de modèles 3D géométrique non texturés, les textures pouvant difficilement être considérées comme stables dans le temps (usure, taches...) et pouvant varier pour un même objet manufacturé. De plus, les modèles à base de nuages de descripteurs locaux ou les modèles surfaciques texturés sont actuellement des données peu disponibles dans l’industrie. Enfin, nous faisons le choix d’estimer la pose de la caméra de manière géométrique et non par apprentissage. Le suivi d’objets à l’aide d’apprentissage automatique est en effet encore difficilement exploitable en milieu industriel. (...)
In the industry domain, applications such as quality control, automation of complex tasks or maintenance support with Augmented Reality (AR) could greatly benefit from visual tracking of 3D objects. However, this technology is under-exploited due to the difficulty of providing deployment easiness, localization quality and genericity simultaneously. Most existing solutions indeed involve a complex or an expensive deployment of motion capture sensors, or require human supervision to simplify the 3D model. And finally, most tracking solutions are restricted to textured or polyhedral objects to achieved an accurate camera pose estimation.Tracking any object is a challenging task due to the large variety of object forms and appearances. Industrial objects may indeed have sharp edges, or occluding contours that correspond to non-static and view-point dependent edges. They may also be textured or textureless. Moreover, some applications require to take large amplitude motions as well as object occlusions into account, tasks that are not always dealt with common model-based tracking methods. These approaches indeed exploit 3D features extracted from a model, that are matched with 2D features in the image of a video-stream. However the accuracy and robustness of the camera localization depend on the visibility of the object as well as on the motion of the camera. To better constrain the localization when the object is static, recent solutions rely on environment features that are reconstructed online, in addition to the model ones. These approaches combine SLAM (Simultaneous Localization And Mapping) and model-based tracking solutions by using constraints from the 3D model of the object of interest. Constraining SLAM algorithms with a 3D model results in a drift free localization. However, such approaches are not generic since they are only adapted for textured or polyhedral objects. Furthermore, using the 3D model to constrain the optimization process may generate high memory consumption,and limit the optimization to a temporal window of few cameras. In this thesis, we propose a solution that fulfills the requirements concerning deployment easiness, localization quality and genericity. This solution, based on a visual key-frame-based constrained SLAM, only exploits an RGB camera and a geometric CAD model of the static object of interest. An RGB camera is indeed preferred over an RGBD sensor, since the latter imposes limits on the volume, the reflectiveness or the absorptiveness of the object, and the lighting conditions. A geometric CAD model is also preferred over a textured model since textures may hardly be considered as stable in time (deterioration, marks,...) and may vary for one manufactured object. Furthermore, textured CAD models are currently not widely spread. Contrarily to previous methods, the presented approach deals with polyhedral and curved objects by extracting dynamically 3D contour points from a model rendered on GPU. This extraction is integrated as a structure constraint into the constrained bundle adjustment of a SLAM algorithm. Moreover we propose different formalisms of this constraint to reduce the memory consumption of the optimization process. These formalisms correspond to hybrid structure/trajectory constraints, that uses output camera poses of a model-based tracker. These formalisms take into account the structure information given by the 3D model while relying on the formalism of trajectory constraints. The proposed solution is real-time, accurate and robust to occlusion or sudden motion. It has been evaluated on synthetic and real sequences of different kind of objects. The results show that the accuracy achieved on the camera trajectory is sufficient to ensure a solution perfectly adapted for high-quality Augmented Reality experiences for the industry
7

Royer, Eric. "Cartographie 3D et localisation par vision monoculaire pour la navignation autonome d'un robot mobile." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00698908.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire de thèse présente la réalisation d'un système de localisation pour un robot mobile fondé sur la vision monoculaire. L'objectif de ces travaux est de pouvoir faire naviguer un véhicule robotique sur parcours donné en milieu urbain. Le robot est d'abord conduit manuellement. Pendant cette phase d'apprentissage, la caméra embarquée enregistre une séquence vidéo. Après un traitement approprié hors ligne, une image prise avec le même matériel permet de localiser le robot en temps réel. Cette localisation peut être utilisée pour commander le robot et faire en sorte qu'il suive de façon autonome le même parcours que durant la phase d'apprentissage. Le principe retenu consiste à construire une carte tridimensionnelle de la zone parcourue pendant la phase d'apprentissage, puis à se servir de la carte pour se localiser. Une grande partie de ce mémoire est consacré à l'étude des performances du système
8

Zarader, Pierre. "Transcranial ultrasound tracking of a neurosurgical microrobot." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans l'objectif de traiter les tumeurs cérébrales difficilement accessibles avec les outils chirugicaux actuels, Robeauté développe un microrobot innovant dans l'objectif de naviguer dans les zones cérébrales profondes avec un minimum d'invasivité. L'objectif de cette thèse a été de développer et de valider un système de suivi ultrasonore transcrânien du microrobot afin de pouvoir implémenter des commandes robotiques et garantir ainsi la sûreté et l'efficacité de l'intervention.L'approche proposée consiste à placer trois émetteurs ultrasonores sur la tête du patient, et à embarquer un récepteur ultrasonore sur le microrobot. En connaissant la vitesse du son dans les tissus biologiques et l'épaisseur de crâne traversée, il est possible d'estimer les distances entre les émetteurs et le récepteur par mesure de temps de vol, et d'en déduire sa position 3D par trilatération. Une preuve de concept a d'abord été réalisée à travers un modèle de crâne d'épaisseur constante, démontrant une précision de localisation submillimétrique. Pour se placer dans un contexte clinique, le système a ensuite été évalué à travers un modèle de calvaria dont l'épaisseur et la vitesse du son en face de chaque émetteur ont été déduites par tomodensitométrie. Le système a démontré une précision de localisation moyenne de 1.5 mm, soit une dégradation de la précision d'1 mm comparée à celle du suivi à travers le modèle de crâne d'épaisseur constante, expliquée par l'incertitude apportée par l'épaisseur hétérogène de la calvaria. Enfin, trois tests pré-cliniques, sans possibilité d'évaluer l'erreur de localisation, ont été réalisés : (i) un test post-mortem sur un humain, (ii) un test post-mortem sur une brebis, (iii) et un test in vivo sur une brebis.De futures pistes d'amélioration du système de suivi ont été proposées, telles que (i) l'utilisation de simulation de propagation ultrasonore transcrânienne basée sur une tomodensitométrie pour la prise en compte des hétérogénéités du crâne, (ii) la miniaturisation du capteur ultrasonore embarqué sur le microrobot, (iii) ainsi que l'intégration d'une imagerie ultrasonore pour la visualisation de la vascularisation locale autour du microrobot, permettant ainsi de réduire le risque de lésions et de détecter d'éventuelles angiogenèses pathologiques
With the aim of treating brain tumors difficult to access with current surgical tools, Robeauté is developing an innovative microrobot to navigate deep brain areas with minimal invasiveness. The aim of this thesis was to develop and validate a transcranial ultrasound-based tracking system for the microrobot, in order to be able to implement robotic commands and thus guarantee both the safety and the effectiveness of the intervention.The proposed approach consists in positioning three ultrasound emitters on the patient's head, and embedding an ultrasound receiver on the microrobot. Knowing the speed of sound in biological tissue and the skull thickness crossed, it is possible to estimate the distances from the emitters to the receiver by time-of-flight measurements, and to deduce its 3D position by trilateration. A proof of concept was first carried out using a skull phantom of constant thickness, demonstrating submillimeter localization accuracy. The system was then evaluated using a calvaria phantom whose thickness and speed of sound in front of each emitter were deduced by CT scan. The system demonstrated an mean localization accuracy of 1.5 mm, i.e. a degradation in accuracy of 1 mm compared with the tracking through the skull phantom of constant thickness, explained by the uncertainty brought by the heterogeneous shape of the calvaria. Finally, three preclinical tests, without the possibility of assessing localization error, were carried out: (i) a post-mortem test on a human, (ii) a post-mortem test on a ewe, (iii) and an in vivo test on a ewe.Further improvements to the tracking system have been proposed, such as (i) the use of CT scan-based transcranial ultrasound propagation simulation to take account of skull heterogeneities, (ii) the miniaturization of the ultrasound sensor embedded in the microrobot, (iii) as well as the integration of ultrasound imaging to visualize local vascularization around the microrobot, thereby reducing the risk of lesions and detecting possible pathological angiogenesis
9

Holländer, Matthias. "Synthèse géométrique temps réel." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
10

Baele, Xavier. "Génération et rendu 3D temps réel d'arbres botaniques." Doctoral thesis, Universite Libre de Bruxelles, 2003. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Itthirad, Frédéric. "Acquisition et traitement d'images 3D couleur temps réel." Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les capteurs 3D existants sont encore peu utilisés et ne permettent que l’acquisition de données 3D. En cas de nécessité de données 2D monochrome ou couleur, il faut alors obligatoirement ajouter un capteur supplémentaire et procéder au recalage des données. La société NT2I a décidé de développer sa propre solution afin de pouvoir rester maître de la chaîne d’acquisition. Mon travail a consisté en la conception d’un capteur spécifique intégrant couleur et calibration et au traitement des images issues de celui-ci. Pour cela, j’ai été amené à travailler sur l’extension du modèle LIP (Logarithmic Image Processing) pour des images couleur et à l’implémentation d’algorithmes temps réel
The existing 3D sensors aren’t much used and are only capable of capturing 3D dat. When 2D data are necessary, one has to use another camera and correlate the 2 images. NT2I has decided to develop its own solution in order to control the acquisition chain. My work has been to develop a specific camera with color, calibration, and image processing algorithms. In that purpose, I've worked on the extension of the LIP model (Logarithmic Image Processing) for color images and on the implementation of real time algorithms
12

Bleron, Alexandre. "Rendu stylisé de scènes 3D animées temps-réel." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM060/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but du rendu stylisé est de produire un rendud'une scène 3D dans le style visuel particuliervoulu par un artiste.Cela nécessite de reproduire automatiquementsur ordinateur certaines caractéristiquesd'illustrations traditionnelles: par exemple,la façon dont un artiste représente les ombres et lalumière, les contours des objets, ou bien les coupsde pinceau qui ont servi à créer une peinture.Les problématiques du rendu stylisé sont pertinentesdans des domaines comme la réalisation de films d'animation 3Dou le jeu vidéo, où les studios cherchent de plus en plus à se démarquerpar des styles visuels originaux.Dans cette thèse, nous explorons des techniques destylisation qui peuvent s'intégrer dans des pipelinesde rendu temps-réel existants, et nous proposons deux contributions.La première est un outil de création de modèles d'illuminationstylisés pour des objets 3D.La conception de ces modèles est complexe et coûteuse en temps,car ils doivent produire un résultat cohérentsous une multitude d'angles de vue et d'éclairages.Nous proposons une méthode qui facilite la créationde modèles d'illumination pour le rendu stylisé,en les décomposant en sous-modèles plus simples à manipuler.Notre seconde contribution est un pipeline de rendude scènes 3D dans un style peinture,qui utilise une combinaison de bruits procéduraux 3Det de filtrage en espace écran.Des techniques de filtrage d'image ont déjà été proposéespour styliser des images ou des vidéos:le but de ce travail est d'utiliser ces filtres pourstyliser des scènes 3D tout en gardant la cohérence du mouvement.Cependant, directement appliquer un filtreen espace écran produit des défauts visuels au niveau dessilhouettes des objets.Nous proposons une méthode qui permet d'assurer la cohérence du mouvement,en guidant les filtres d'images avec des informations sur la géométrie extraites de G-buffers, et qui élimine les défauts aux silhouettes
The goal of stylized rendering is to render 3D scenes in the visual style intended by an artist.This often entails reproducing, with some degree of automation,the visual features typically found in 2D illustrationsthat constitute the "style" of an artist.Examples of these features include the depiction of light and shade,the representation of the contours of objects,or the strokes on a canvas that make a painting.This field is relevant today in domains such as computer-generated animation orvideo games, where studios seek to differentiate themselveswith styles that deviate from photorealism.In this thesis, we explore stylization techniques that can be easilyinserted into existing real-time rendering pipelines, and propose two novel techniques in this domain.Our first contribution is a workflow that aims to facilitatethe design of complex stylized shading models for 3D objects.Designing a stylized shading model that follows artistic constraintsand stays consistent under a variety of lightingconditions and viewpoints is a difficult and time-consuming process.Specialized shading models intended for stylization existbut are still limited in the range of appearances and behaviors they can reproduce.We propose a way to build and experiment with complex shading modelsby combining several simple shading behaviors using a layered approach,which allows a more intuitive and efficient exploration of the design space of shading models.In our second contribution, we present a pipeline to render 3D scenes in painterly styles,simulating the appearance of brush strokes,using a combination of procedural noise andlocal image filtering in screen-space.Image filtering techniques can achieve a wide range of stylized effects on 2D pictures and video:our goal is to use those existing filtering techniques to stylize 3D scenes,in a way that is coherent with the underlying animation or camera movement.This is not a trivial process, as naive approaches to filtering in screen-spacecan introduce visual inconsistencies around the silhouette of objects.The proposed method ensures motion coherence by guiding filters with informationfrom G-buffers, and ensures a coherent stylization of silhouettes in a generic way
13

Kaiser, Adrien. "Analyse de scène temps réel pour l'interaction 3D." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'analyse visuelle de scènes intérieures capturées par des caméras de profondeur dans le but de convertir leurs données en information de haut niveau sur la scène. Elle explore l'application d'outils d'analyse géométrique 3D à des données visuelles de profondeur en termes d'amélioration de qualité, de recalage et de consolidation. En particulier, elle vise à montrer comment l'abstraction de formes permet de générer des représentations légères pour une analyse rapide avec des besoins matériels faibles. Cette propriété est liée à notre objectif de concevoir des algorithmes adaptés à un fonctionnement embarqué en temps réel dans le cadre d'appareils portables, téléphones ou robots mobiles. Le contexte de cette thèse est l'exécution d'un procédé d’interaction 3D temps réel sur un appareil mobile. Cette exécution soulève plusieurs problématiques, dont le placement de zones d'interaction 3D par rapport à des objets environnants réels, le suivi de ces zones dans l'espace lorsque le capteur est déplacé ainsi qu'une utilisation claire et compréhensible du système par des utilisateurs non experts. Nous apportons des contributions vers la résolution de ces problèmes pour montrer comment l'abstraction géométrique de la scène permet une localisation rapide et robuste du capteur et une représentation efficace des données fournies ainsi que l'amélioration de leur qualité et leur consolidation. Bien que les formes géométriques simples ne contiennent pas autant d'information que les nuages de points denses ou les ensembles volumiques pour représenter les scènes observées, nous montrons qu’elles constituent une approximation acceptable et que leur légèreté leur donne un bon équilibre entre précision et performance
This PhD thesis focuses on the problem of visual scene analysis captured by commodity depth sensors to convert their data into high level understanding of the scene. It explores the use of 3D geometry analysis tools on visual depth data in terms of enhancement, registration and consolidation. In particular, we aim to show how shape abstraction can generate lightweight representations of the data for fast analysis with low hardware requirements. This last property is important as one of our goals is to design algorithms suitable for live embedded operation in e.g., wearable devices, smartphones or mobile robots. The context of this thesis is the live operation of 3D interaction on a mobile device, which raises numerous issues including placing 3D interaction zones with relation to real surrounding objects, tracking the interaction zones in space when the sensor moves and providing a meaningful and understandable experience to non-expert users. Towards solving these problems, we make contributions where scene abstraction leads to fast and robust sensor localization as well as efficient frame data representation, enhancement and consolidation. While simple geometric surface shapes are not as faithful as heavy point sets or volumes to represent observed scenes, we show that they are an acceptable approximation and their light weight makes them well balanced between accuracy and performance
14

Kaiser, Adrien. "Analyse de scène temps réel pour l'interaction 3D." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'analyse visuelle de scènes intérieures capturées par des caméras de profondeur dans le but de convertir leurs données en information de haut niveau sur la scène. Elle explore l'application d'outils d'analyse géométrique 3D à des données visuelles de profondeur en termes d'amélioration de qualité, de recalage et de consolidation. En particulier, elle vise à montrer comment l'abstraction de formes permet de générer des représentations légères pour une analyse rapide avec des besoins matériels faibles. Cette propriété est liée à notre objectif de concevoir des algorithmes adaptés à un fonctionnement embarqué en temps réel dans le cadre d'appareils portables, téléphones ou robots mobiles. Le contexte de cette thèse est l'exécution d'un procédé d’interaction 3D temps réel sur un appareil mobile. Cette exécution soulève plusieurs problématiques, dont le placement de zones d'interaction 3D par rapport à des objets environnants réels, le suivi de ces zones dans l'espace lorsque le capteur est déplacé ainsi qu'une utilisation claire et compréhensible du système par des utilisateurs non experts. Nous apportons des contributions vers la résolution de ces problèmes pour montrer comment l'abstraction géométrique de la scène permet une localisation rapide et robuste du capteur et une représentation efficace des données fournies ainsi que l'amélioration de leur qualité et leur consolidation. Bien que les formes géométriques simples ne contiennent pas autant d'information que les nuages de points denses ou les ensembles volumiques pour représenter les scènes observées, nous montrons qu’elles constituent une approximation acceptable et que leur légèreté leur donne un bon équilibre entre précision et performance
This PhD thesis focuses on the problem of visual scene analysis captured by commodity depth sensors to convert their data into high level understanding of the scene. It explores the use of 3D geometry analysis tools on visual depth data in terms of enhancement, registration and consolidation. In particular, we aim to show how shape abstraction can generate lightweight representations of the data for fast analysis with low hardware requirements. This last property is important as one of our goals is to design algorithms suitable for live embedded operation in e.g., wearable devices, smartphones or mobile robots. The context of this thesis is the live operation of 3D interaction on a mobile device, which raises numerous issues including placing 3D interaction zones with relation to real surrounding objects, tracking the interaction zones in space when the sensor moves and providing a meaningful and understandable experience to non-expert users. Towards solving these problems, we make contributions where scene abstraction leads to fast and robust sensor localization as well as efficient frame data representation, enhancement and consolidation. While simple geometric surface shapes are not as faithful as heavy point sets or volumes to represent observed scenes, we show that they are an acceptable approximation and their light weight makes them well balanced between accuracy and performance
15

Charmette, Baptiste. "Localisation temps-réel d'un robot par vision monoculaire et fusion multicapteurs." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00828573.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire présente un système de localisation par vision pour un robot mobile circulant dans un milieu urbain. Pour cela, une première phase d'apprentissage où le robot est conduit manuellement est réalisée pour enregistrer une séquence vidéo. Les images ainsi acquises sont ensuite utilisées dans une phase hors ligne pour construire une carte 3D de l'environnement. Par la suite, le véhicule peut se déplacer dans la zone, de manière autonome ou non, et l'image reçue par la caméra permet de le positionner dans la carte. Contrairement aux travaux précédents, la trajectoire suivie peut être différente de la trajectoire d'apprentissage. L'algorithme développé permet en effet de conserver la localisation malgré des changements de point de vue importants par rapport aux images acquises initialement. Le principe consiste à modéliser les points de repère sous forme de facettes localement planes, surnommées patchs plan, dont l'orientation est connue. Lorsque le véhicule se déplace, une prédiction de la position courante est réalisée et la déformation des facettes induite par le changement de point de vue est reproduite. De cette façon la recherche des amers revient à comparer des images pratiquement identiques, facilitant ainsi leur appariement. Lorsque les positions sur l'image de plusieurs amers sont connues, la connaissance de leur position 3D permet de déduire la position du robot. La transformation de ces patchs plan est complexe et demande un temps de calcul important, incompatible avec une utilisation temps-réel. Pour améliorer les performances de l'algorithme, la localisation a été implémentée sur une architecture GPU offrant de nombreux outils permettant d'utiliser cet algorithme avec des performances utilisables en temps-réel. Afin de prédire la position du robot de manière aussi précise que possible, un modèle de mouvement du robot a été mis en place. Il utilise, en plus de la caméra, les informations provenant des capteurs odométriques. Cela permet d'améliorer la prédiction et les expérimentations montrent que cela fournit une plus grande robustesse en cas de pertes d'images lors du traitement. Pour finir ce mémoire détaille les différentes performances de ce système à travers plusieurs expérimentations en conditions réelles. La précision de la position a été mesurée en comparant la localisation avec une référence enregistrée par un GPS différentiel.
16

Malasné, Nicolas. "Localisation et reconnaissance de visages en temps réel : algorithmes et architectures." Dijon, 2002. http://www.theses.fr/2002DIJOS045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Holländer, Matthias. "Synthèse géométrique temps réel." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
18

Masson, Lucie. "Suivi temps-réel d'objets 3D pour la réalité augmentée." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00685727.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire de thèse a pour sujet le suivi temps réel d'objets en trois dimensions, dans le but de réaliser des applications de réalité augmentée. En effet la réalité augmentée nécessite des algorithmes de suivi stables et précis. Si l'on désire en plus que le suivi soit effectué en temps réel vidéo, il faut alors trouver des compromis entre précision des résultats et vitesse de traitement. Ce mémoire contient la description des trois algorithmes de suivi développés durant cette thèse. Ils illustrent le cheminement suivi par nos travaux durant ces trois années, c'est-à-dire le suivi d'objets de plus en plus complexes, d'abord planaires, puis simples objets 3D, et enfin objets 3D complexes de modèle 3D inconnu. Le premier algorithme permet de suivre des objets planaires peu texturés. Il s'agit d'une extension d'un algorithme de suivi de plans efficace et rapide, basé sur l'utilisation d'informations de texture, auquel nous avons ajouté une composante de suivi de contour afin de pouvoir l'utiliser sur un ensemble plus vaste de motifs. Une fois ce travail sur le suivi planaire effectué, nous avons adapté l'algorithme de suivi de textures au suivi d'objets en trois dimensions. En utilisant de multiples occurrences de cet algorithme, réparties sur la surface de l'objet à suivre, couplées à un algorithme itératif d'estimation de pose, nous sommes parvenus à suivre en temps réel des objets simples effectuant des translations et des rotations à 360 degrés. Cet algorithme étant limité par le fait qu'il nous faut connaître un modèle 3D de l'objet à suivre, nous avons ensuite cherché à réaliser un algorithme permettant, lors d'une phase d'apprentissage, de générer un modèle statistique de l'objet à partir de vues clefs 2D. Basé sur le même algorithme de suivi de texture que précédemment, cet algorithme ne détermine pas la pose 3D de l'objet suivi mais décrit sa position comme étant la déformation d'une grille 2D.
19

Petit, Benjamin. "Téléprésence, immersion et interactions pour le reconstruction 3D temps-réel." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00584001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les environnements 3D immersifs et collaboratifs en ligne sont en pleine émergence. Ils posent les problématiques du sentiment de présence au sein des mondes virtuels, de l'immersion et des capacités d'interaction. Les systèmes 3D multi-caméra permettent, sur la base d'une information photométrique, d'extraire une information géométrique (modèle 3D) de la scène observée. Il est alors possible de calculer un modèle numérique texturé en temps-réel qui est utilisé pour assurer la présence de l'utilisateur dans l'espace numérique. Dans le cadre de cette thèse nous avons étudié comment coupler la capacité de présence fournie par un tel système avec une immersion visuelle et des interactions co-localisées. Ceci a mené à la réalisation d'une application qui couple un visio-casque, un système de suivi optique et un système multi-caméra. Ainsi l'utilisateur peut visualiser son modèle 3D correctement aligné avec son corps et mixé avec les objets virtuels. Nous avons aussi mis en place une expérimentation de télépresence sur 3 sites (Bordeaux, Grenoble, Orléans) qui permet à plusieurs utilisateurs de se rencontrer en 3D et de collaborer à distance. Le modèle 3D texturé donne une très forte impression de présence de l'autre et renforce les interactions physiques grâce au langage corporel et aux expressions faciales. Enfin, nous avons étudié comment extraire une information de vitesse à partir des informations issues des caméras, grâce au flot optique et à des correspondances 2D et 3D, nous pouvons estimer le déplacement dense du modèle 3D. Cette donnée étend les capacités d'interaction en enrichissant le modèle 3D.
20

Filali, Wassim. "Détection temps réel de postures humaines par fusion d'images 3D." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3088/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est centrée sur un projet de recherche en vision. Il s'agit d'un projet qui permet à des caméras intelligentes de comprendre dans quelle posture se trouve la personne filmée. Cela permet de savoir si la personne se porte bien ou si elle est dans une situation critique ou de danger. Les caméras ne doivent pas être connectées à un ordinateur, mais avoir toute l'intelligence embarquée dans la caméra même. Ce travail s'appuie sur des technologies récentes comme le capteur Kinect de la console de jeu. Ce type de capteur est un capteur de profondeur, c'est-à-dire que la caméra peut estimer la distance qui la sépare de chaque point de la scène. Notre contribution consiste à combiner plusieurs de ces caméras pour avoir une meilleure reconstruction de la posture de la personne. Nous avons créé une base de données d'images qui a permis d'apprendre au programme comment reconnaître les postures. Nous avons ajusté les bons paramètres à notre programme et on l'a comparé au programme du Kinect
This thesis is based on a computer vision research project. It is a project that allows smart cameras to understand the posture of a person. It allows to know if the person is alright or if it is in a critical situation or in danger. The cameras should not be connected to a computer but embed all the intelligence in the camera itself. This work is based on the recent technologies like the Kinect sensor of the game console. This sensor is a depth sensor, which means that the camera can estimate the distance to every point in the scene. Our contribution consists on combining multiple of these cameras to have a better posture reconstruction of the person. We have created a dataset of images to teach the program how to recognize postures. We have adjusted the right parameters and compared our program to the one of the Kinect
21

Marsit, Nadhem. "Traitement des requêtes dépendant de la localisation avec des contraintes de temps réel." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/106/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mobilité des unités a connu un fort essor depuis quelques années. Une des conséquences directes dans le domaine des bases de données est l'apparition de nouveaux types de requêtes tels que les Requêtes Dépendant de la Localisation (RDL) (e. G. Un ambulancier demande l'hôpital le plus proche de sa position). Ces requêtes soulèvent des problèmes qui font depuis quelques années l'objet de plusieurs recherches. En dépit de l'abondance des travaux liés à ce domaine, les différents types de requêtes étudiés jusqu'ici ne répondent pas à tous les besoins applicatifs. En effet, des nouveaux besoins donnent naissance à des requêtes mobiles avec des contraintes de temps réel. La prise en compte à la fois des contraintes de temps réel et de mobilité lors du traitement des requêtes est un problème important à résoudre. Ainsi, notre principal objectif est de proposer une solution pour le traitement des requêtes RDL avec des contraintes de temps réel. D'abord, nous proposons un langage permettant d'exprimer différents types de requêtes RDL. Ensuite, nous concevons une architecture permettant de traiter des requêtes RDL avec des contraintes de temps réel. Les modules conçus sont destinés à être implantés au-dessus de SGBD existants (e. G. Oracle). Dans le cadre de cette architecture, nous proposons des méthodes permettant de tenir compte de la localisation du client et de son déplacement après l'envoi de la requête. Nous proposons aussi des méthodes permettant de maximiser le taux de requêtes respectant leurs échéances. Enfin, nous validons nos propositions par une mise en œuvre et des évaluations des performances des méthodes proposées
In last years, the mobility of units achieved an increasing development. One of the direct consequences in the database field is the appearance of new types of queries such as Location Dependent Queries (LDQ) (e. G. An ambulance driver asks for the closest hospital). These queries raise problems which have been considered by several researches. Despite the intensive work related to this field, the different types of queries studied so far do not meet all the needs of location based applications. In fact these works don’t take into account the real time aspect required by certain location based applications. These new requirements generate new types of queries such as mobile queries with real time constraints. Taking into account mobility and real time constraints is an important problem to deal with. Hence, our main objective is to propose a solution for considering real time constraints while location dependent query processing. First, we propose a language for expressing different type of queries. Then, we design a software architecture allowing to process location dependent queries with real time constraints. The modules of this architecture are designed to be implemented on top of existent DBMS (e. G. Oracle). We propose methods to take into account location of mobile client and his displacement after sending the query. We also propose methods in order to maximise the percentage of queries respecting their deadlines. Finally we validate our proposal by implementing the proposed methods and evaluating their performance
22

Meilland, Maxime. "Cartographie RGB-D dense pour la localisation visuelle temps-réel et la navigation autonome." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://tel.archives-ouvertes.fr/tel-00686803.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de la navigation autonome en environnement urbain, une localisation précise du véhicule est importante pour une navigation sure et fiable. La faible précision des capteurs bas coût existants tels que le système GPS, nécessite l'utilisation d'autres capteurs eux aussi à faible coût. Les caméras mesurent une information photométrique riche et précise sur l'environnement, mais nécessitent l'utilisation d'algorithmes de traitement avancés pour obtenir une information sur la géométrie et sur la position de la caméra dans l'environnement. Cette problématique est connue sous le terme de Cartographie et Localisation Simultanées (SLAM visuel). En général, les techniques de SLAM sont incrémentales et dérivent sur de longues trajectoires. Pour simplifier l'étape de localisation, il est proposé de découpler la partie cartographie et la partie localisation en deux phases: la carte est construite hors-ligne lors d'une phase d'apprentissage, et la localisation est effectuée efficacement en ligne à partir de la carte 3D de l'environnement. Contrairement aux approches classiques, qui utilisent un modèle 3D global approximatif, une nouvelle représentation égo-centrée dense est proposée. Cette représentation est composée d'un graphe d'images sphériques augmentées par l'information dense de profondeur (RGB+D), et permet de cartographier de larges environnements. Lors de la localisation en ligne, ce type de modèle apporte toute l'information nécessaire pour une localisation précise dans le voisinage du graphe, et permet de recaler en temps-réel l'image perçue par une caméra embarquée sur un véhicule, avec les images du graphe, en utilisant une technique d'alignement d'images directe. La méthode de localisation proposée, est précise, robuste aux aberrations et prend en compte les changements d'illumination entre le modèle de la base de données et les images perçues par la caméra. Finalement, la précision et la robustesse de la localisation permettent à un véhicule autonome, équipé d'une caméra, de naviguer de façon sure en environnement urbain.
23

Abid, Mohamed Amine. "Systèmes de localisation en temps réel basés sur les réseaux de communication sans fil." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8820.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des techniques fiables de radiolocalisation s’avèrent indispensables au développement d’un grand nombre de nouveaux systèmes pertinents. Les techniques de localisation basées sur les réseaux de communication sans-fil (WNs) sont particulièrement adéquates aux espaces confinés et fortement urbanisés. Le présent projet de recherche s’intéresse aux systèmes de localisation en temps réel (RTLS) basés sur les technologies de communication sans-fil existantes. Deux nouvelles techniques de radiolocalisation alternatives sont proposées pour améliorer la précision de positionnement des nœuds sans-fil mobiles par rapport aux méthodes conventionnelles basées sur la puissance des signaux reçus (RSS). La première méthode de type géométrique propose une nouvelle métrique de compensation entre les puissances de signaux reçus par rapport à des paires de stations réceptrices fixes. L’avantage de cette technique est de réduire l’effet des variations du milieu de propagation et des puissances d’émission des signaux sur la précision de localisation. La même métrique est sélectionnée pour former les signatures utilisées pour créer la carte radio de l’environnement de localisation durant la phase hors-ligne dans la deuxième méthode de type analyse de situation. Durant la phase de localisation en temps réel, la technique d’acquisition comprimée (CS) est appliquée pour retrouver les positions des nœuds mobiles à partir d’un nombre réduit d’échantillons de signaux reçus en les comparant à la carte radio préétablie. Le calcul d’algèbre multilinéaire proposé dans ce travail permet l’utilisation de ce type de métrique ternaire, équivalemment la différence des temps d’arrivée (TDOA), pour calculer les positions des cibles selon la technique de CS. Les deux méthodes sont ensuite validées par des simulations et des expérimentations effectuées dans des environnements à deux et à trois dimensions. Les expériences ont été menées dans un bâtiment multi-étages (MFB) en utilisant l’infrastructure sans-fil existante pour retrouver conjointement la position et l’étage des cibles en utilisant les techniques proposées. Un exemple emblématique de l’application des RTLS dans les zones urbaines est celui des systèmes de transport intelligents (ITS) pour améliorer la sécurité routière. Ce projet s’intéresse également à la performance d’une application de sécurité des piétons au niveau des intersections routières. L’accomplissement d’un tel système repose sur l’échange fiable, sous des contraintes temporelles sévères, des données de positionnement géographique entre nœuds mobiles pour se tenir mutuellement informés de leurs présences et positions afin de prévenir les risques de collision. Ce projet mène une étude comparative entre deux architectures d’un système ITS permettant la communication entre piétons et véhicules, directement et via une unité de l’infrastructure, conformément aux standards de communication dans les réseaux ad hoc véhiculaires (VANETs).
24

Engels, Laurent. "Acquisition en temps réel, identification et mise en correspondance de données 3D." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209852.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse décrit le développement et la mise en œuvre d'un système d'acquisition 3D ayant pour but la localisation temps réel en 3D et l'identification d'électrodes et des antennes utilisées lors d'un examen MEG/EEG. La seconde partie concerne la mise en correspondance de ces données avec les informations de la résonance magnétique.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
25

Chenu, E. "Optimisation polyédrique de terrain 3D pour une navigation interactive en temps réel." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le developpement de la realite virtuelle impose de concevoir un nombre sans cesse croissant de modele 3d pour la navigation en temps reel. Les difficultes de la triangulation de surface 3d m'ont amenees a creer la methode tredo. Cette methode est basee sur deux criteres de triangulation et trois criteres d'optimisation. Les criteres de triangulation decoulent du critere de triangulation de delaunay. Le but des trois criteres d'optimisation est de construire un maillage polyedrique d'une surface 3d qui puisse etre visualise le plus rapidement possible par un ordinateur. Ces criteres sont donc issues des contraintes de la realite virtuelle et des cartes graphiques. Les modeles optimisees permettent des gains de temps de l'ordre de 25% sur des modeles non optimisees. La navigation en temps reel est ainsi plus performante.
26

Guitteny, Vincent. "Traitement de séquences video : asynchronisme, reconstruction 3D et application en temps réel." Paris 6, 2008. http://www.theses.fr/2008PA066162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’implantation accrue de systèmes d’acquisition vidéo amène de nouvelles problématiques relatives à l’exploitation en temps réel ou différée des données image. En effet l’analyse des données multi-caméras pour la reconstruction 3D ou la réalité augmentée nécessite au préalable un recalage temporel de chacun des flux vidéo. Si la plupart de ces systèmes sont équipés de synchroniseurs matériels, d’autres en revanche n’ont pas d’autre alternative que l’analyse des images afin d’estimer cette cohérence temporelle (systèmes hétérogènes de surveillance urbain. . . ). Cette thèse s’inscrit dans ce cadre d’étude. La première partie concerne la mise en œuvre de méthodes logicielles qui s’appuient sur le contenu des images afin d’estimer la synchronisation d’un ensemble de flux vidéos. La cohérence géométrique des objets en mouvement présents dans chaque plan image est utilisée pour estimer ce décalage. Nous présentons tout d’abord deux méthodes d’analyse spatiale. Dans un premier temps, la synchronisation est déduite de la mise en correspondance de points d’intérêts dans les plans rectifiés. Un appariement dynamique des trajectoires en correspondance est utilisé dans le cas contraire où la géométrie épipolaire n’est pas connue. Cette étude présente également deux méthodes d’analyse fréquentielle. La première approche consiste à corréler les traces laissées sur chaque ligne épipolaire par le passage des objets en mouvement. Le décalage est alors déduit du positionnement d’un pic d’intensité dans l’image de corrélation fréquentielle. L’originalité de cette méthode a conduit au dépôt d’un brevet européen par THALES et l’Université Pierre et Marie Curie. Une deuxième approche consiste à corréler des volumes extraits autour des objets en mouvement entre les flux vidéos. L’utilisation du domaine fréquentiel permet de réduire les temps de calculs trop coûteux observés avec des méthodes de mise en correspondance spatiale. Notre étude montre que cette corrélation permet une estimation fiable pour un grand nombre de points d’intérêt et sous certaines contraintes géométriques (notamment de pose-caméra). La deuxième partie de cette thèse est consacrée aux méthodes de reconstruction 3D par analyse d’images. Dans le cadre d’acquisitions monoculaires calibrées, les algorithmes de "structure et mouvement" sont présentés. Une implémentation dans la carte graphique (GPU) est utilisée pour obtenir des résultats temps réel (30Hz) dans le cas de capteurs stéréoscopiques, et finalement les algorithmes de colorisation volumique sont envisagés pour des réseaux de caméras. L’exploitation des données 3D est enfin proposée dans le cadre d’un démonstrateur de réalité augmentée. Cette application permet l’incrustation temps réel des objets synthétiques reconstruits pour des applications de type environnement urbain. Une méthode de calibrage externe qui s’appuie sur l’identification de marqueurs infrarouges dans la scène est alors proposée pour pallier les contraintes logistiques des marqueurs spatiaux.
27

Lagueux, Louis-Bernard. "Détection et localisation des discontinuités dans la simulation temps réel des circuits d'électronique de puissance." Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/649/1/LAGUEUX_Louis%2DBernard.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une des principales sources d'imprécision dans une simulation temps réel des circuits d'électronique de puissance est la commutation des interrupteurs dans le circuit. Dans une simulation à pas fixe, des retards de commutation peuvent être introduits et ceci fausse grandement les résultats. Il est donc nécessaire de bien localiser ces discontinuités afin de pouvoir obtenir des résultats précis. Plusieurs algorithmes de localisation ont déjà été proposés, mais ces derniers ont généralement deux problèmes communs. Dans un premier temps, le pas suivant la discontinuité doit nécessairement être calculé afin de pouvoir effectuer la localisation d'une discontinuité et, dans un second temps, la méthode de localisation étant rudimentaire, au plus une seule discontinuité peut être localisée par pas de simulation. Si un nombre pair de discontinuité est présent dans un même pas de simulation, la localisation sera impossible. Un nouvel algorithme permettant de pallier à ces deux problèmes majeurs est donc proposé dans ce document. Ce demier est basé sur une méthode udiisée dans le domaine de la robotique et utilise les principes de contrôle des systèmes non linéaires. 11 permet de localiser, à l'aide des pas précédents, si des discontinuités sont présentes dans le pas suivant. De plus, puisqu'il uUlise un polynôme afin de faire la localisation, un nombre de discontinuité égal à l'ordre de ce polynôme peut être localisé dans un même pas. Cet algorithme a l'avantage d'être complètement indépendant de la méthode numérique de résolution des équations différentielles de la simulation proprement dite. Il peut donc être utilisé avec différentes méthodes, sans pour autant compromettre son efficacité et sa précision. Des tests permettront de démontrer que ce nouvel algorithme effectue son travail avec une précision qui surpasse les algorithmes existants et ceci sans introduire de grand retard dans la simulation. Ce demier point est important, car dans une simulation temps réel, les contraintes de temps ne doivent en aucun cas être dépassées et le gain en précision ne doit pas se faire au prix d'une importante charge de travail supplémentaire.
28

Mendoza, Serrano César Augusto. "Interactions en temps réel de tissu mou avec découpe 3D et retour d'effort." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur la problématique liée à la simulation des interactions des objets mous. Dans ce cadre, nous nous sommes intéresses à la découpe 3D des objets déformables et aux interactions haptiques. Dans un premier temps, nous présentons plusieurs modèles d'objets déformables physiques. Nous proposons ensuite une approche pour modéliser en temps réel la découpe de modèles déformables. Celle-ci est basée sur l'idée de séparer les primitives de simulation, au lieu de les détruire ou de les subdiviser. Cette méthode borne l'augmentation de la complexité du maillage et permet donc de simuler de manière interactive des opérations de découpe. On propose également un critère géométrique et physique de rupture du tissu. Finalement, dans le cadre des interactions haptiques, nous avons proposé un ensemble de modèles tampon du modèle original, permettant le calcul des forces de retour d'effort è hautes fréquences.
29

Servant, F. "Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00844909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmen- tée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et car- tographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche.
30

Barbosa, Nogueira Evanaska Maria. "Conception d'un système d'antennes pour la localisation en temps réel avec réseau de capteurs sans fils." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00981583.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de localisation en temps réel (Real-Time Locating System - RTLS) sont de plus en plus employés dans l'industrie. Ils permettent l'automatisation de diverses tâches telles que l'identification et le suivi des objets au long de la chaîne d'approvisionnement, la surveillance d'équipements dans les usines et la sécurisation des biens. Ces systèmes sont basés sur des capteurs électroniques sans fil à faible puissance et à faible coût avec des antennes intégrées. Dans notre contexte, deux types de capteurs sont utilisés. Les tags de référence sont généralement fixés sur les murs tandis que les tags mobiles sont fixés sur les objets qui doivent être suivis. Notre système RTLS (Real Time Localisation System) exploite la puissance du signal reçu (Received Signal Strength Indication - RSSI) pour calculer la localisation des tags mobiles. Toutefois, la performance de ce système peut être influencée par plusieurs facteurs. Tout d'abord, par rapport à l'antenne, la non-uniformité du diagramme de rayonnement et le non-alignement de la polarisation des antennes peuvent affecter la puissance du signal reçu. De plus, l'impact de l'environnement résulte sur des multi-trajets qui dégradent la précision de la localisation. Dans la première partie de ce travail, nous proposons une solution pour le tag de référence en utilisant un plan réflecteur en métal pour améliorer son diagramme de rayonnement. Nous avons effectué plusieurs expériences utilisant un logiciel de simulation et nous démontrons que l'utilisation d'un plan réflecteur en métal améliore considérablement la précision de la localisation de notre système. Dans la deuxième partie, nous proposons d'utiliser des techniques de diversité d'antenne pour le tag mobile afin de minimiser les effets des multi-trajets et d'améliorer le diagramme de rayonnement afin de couvrir tout l'espace souhaité pour la localisation. Nos solutions se composent de trois antennes intégrées sur le boîtier en plastique du tag, alliant la diversité de diagramme et de polarisation. Nous proposons une première structure avec trois antennes PIFAs manufacturées et fixées à l'extérieur du boîtier, un deuxième système avec deux antennes IFAs et enfin une antenne patch triangulaire sur un substrat permettant de plier les antennes, de façon à pouvoir rentrer la structure dans le boîtier du tag. Ces systèmes ont été simulés dans différents configurations de scénario afin de valider l'amélioration apportée par nos solutions. Finalement, des expérimentations ont été menées afin de comparer les systèmes proposés dans un environnement réel. Les résultats montrent que l'erreur de localisation a été divisée par un facteur proche de trois par rapport au système d'origine.
31

Servant, Fabien. "Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes." Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/servant.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmentée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et cartographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche
Our work deals with computer vision. The problem of augmented reality implies a real time estimation of the relive position between camera and scene. This thesis presents a complete method of pose tracking that works with planar structures which are abundant in indoor and outdoor urban environments. The pose tracking is done using a low cost camera and an inertial sensor. Our approach is to use the planes to make the pose estimation easier. Homographies computed by an image tracking algorithm presented in this document are used as measurements for our Simultaneous Localization And Mapping method. This SLAM method permits a long term and robust pose tracking by propagating the measurements uncertainties. Works about selection of regions to track and their corresponding plane parameters initialization are also described in this thesis. Numerical and image based experiments shows the validity of our approach
32

Tykkälä, Tommi. "Suivi de caméra image en temps réel base et cartographie de l'environnement." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933813.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, méthodes d'estimation basées sur des images, également connu sous le nom de méthodes directes, sont étudiées qui permettent d'éviter l'extraction de caractéristiques et l'appariement complètement. L'objectif est de produire pose 3D précis et des estimations de la structure. Les fonctions de coût présenté minimiser l'erreur du capteur, car les mesures ne sont pas transformés ou modifiés. Dans la caméra photométrique estimation de la pose, rotation 3D et les paramètres de traduction sont estimées en minimisant une séquence de fonctions de coûts à base d'image, qui sont des non-linéaires en raison de la perspective projection et la distorsion de l'objectif. Dans l'image la structure basée sur le raffinement, d'autre part, de la structure 3D est affinée en utilisant un certain nombre de vues supplémentaires et un coût basé sur l'image métrique. Les principaux domaines d'application dans ce travail sont des reconstitutions d'intérieur, la robotique et la réalité augmentée. L'objectif global du projet est d'améliorer l'image des méthodes d'estimation fondées, et pour produire des méthodes de calcul efficaces qui peuvent être accueillis dans des applications réelles. Les principales questions pour ce travail sont : Qu'est-ce qu'une formulation efficace pour une image 3D basé estimation de la pose et de la structure tâche de raffinement ? Comment organiser calcul afin de permettre une mise en œuvre efficace en temps réel ? Quelles sont les considérations pratiques utilisant l'image des méthodes d'estimation basées sur des applications telles que la réalité augmentée et la reconstruction 3D ?
33

Bun, Long. "Détection et localisation de défauts pour un système PV." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00647189.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comme tout processus industriel, un système photovoltaïque peut être soumis, au cours de son fonctionnement, à différents défauts et anomalies conduisant à une baisse de la performance du système et voire à son indisponibilité. Permettre de diagnostiquer finement et de faire de la détection et de localisation de défauts dans une installation PV réduit les coûts de maintenance et surtout augmente la productivité. Dans ce travail de thèse, nous nous intéressons spécifiquement à la détection et la localisation de défauts côté DC du système PV, c'est-à-dire du côté générateur PV. L'objectif de cette thèse est de proposer, en prenant le moins de mesures possibles pour respecter les contraintes économiques, un algorithme pour détecter et localiser des défauts conduisant à une baisse de production. Pour cela, le choix s'est porté sur l'analyse de la caractéristique I-V du générateur PV pour les différents modes de fonctionnement considérés. Cette analyse a conduit à utiliser la méthode d'inférence pour effectuer le diagnostic de l'installation. Cette démarche a été validée par des expérimentations sur site, des simulations temps-réel et hors temps-réel.
34

Roussillon, Cyril. "Une solution opérationnelle de localisation pour des véhicules autonomes basée sur le SLAM." Thesis, Toulouse, INSA, 2013. http://www.theses.fr/2013ISAT0050/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les applications de la robotique mobile autonome en environnements extérieurs sont nombreuses : surveillance de site à la recherche d’anomalies, campagne d’acquisition de données,exploration, recherche de victimes sur des lieux de catastrophes, etc, et l’intérêt de la robotique pour ces applications est d’autant plus grand que les environnements peuvent être dangereux ou risqués pour l’homme. La localisation des robots est une fonction clé dans ces contextes car elle est indispensable à de nombreuses autres fonctions, particulièrement la construction de modèles d’environnement, l’exécution des trajectoires, ou la supervision des missions. Ces travaux présentent la construction d’une solution de localisation pour des robots autonomes,conçue pour être à la fois un outil générique de recherche et un outil opérationnel pour localiser nos robots lors de leurs missions de navigation autonome, capable de gérer de fortes dynamiques de mouvement. En partant d’une solution de localisation et cartographie simultanées (SLAM) basée sur l’utilisation d’une simple caméra, différentes solutions sont successivement construites en ajoutant progressivement des capteurs afin de pallier les difficultés rencontrées lors des évaluations, et ce jusqu’à obtenir un système robuste et précis combinant plusieurs caméras, une centrale inertielle et l’odométrie, et ayant en outre la possibilité d’intégrer des estimations de positions absolues quand elles peuvent être produites (par un récepteur GPS ou un algorithme exploitant une carte initiale). Une analyse profonde des capacités et limitations des différents systèmes est systématiquement effectuée, en considérant notamment l’intérêt d’estimer enligne les calibrages extrinsèques et biais des capteurs. Un accent particulier est mis sur l’exécution temps réel des algorithmes à bord du robot et sur leur robustesse : cela implique la résolution de nombreux problèmes, portant notamment sur les aspects temporels de la gestion des données. Une large évaluation sur différents jeux de données réalistes permet d’évaluer et de valider les différents développements proposés tout au long du manuscrit
There are numerous applications of outdoor autonomous mobile robots : surveillance of areas to detect anomalies, data acquisition campaigns, exploration, search of victims in disaster areas, etc. Robot localization is a key function in these contexts because it is necessary fora lot of essential robotics tasks, in particular to build environment models, follow paths or supervise the execution of the missions.This work presents the development of a localization solution for autonomous robots, designedto be both a generic research tool and an effective tool to localize robots navigating with highlydynamic movements.Starting with a simultaneous localization and mapping (SLAM) solution using a single camera,several solutions are successively built by gradually adding sensors, until obtaining a robust and precise system combining several cameras, an inertial sensor and odometry, which is inaddition able to integrate absolute position measures when available (e.g. as provided byGPS or a map-based localization scheme). A in-depth analysis of the abilities and limitations of the different systems is systematically made, in particular considering the advantages of estimating online extrinsic calibration parameters and sensor biases. A particular emphasisis set on real time execution of the algorithms on board the robots and on their robustness,requiring to address various problems related to temporal aspects of data management.Thorough evaluations using different realistic datasets allows to evaluate and validate the proposed work throughout the manuscript
35

Deschênes, Jean-Daniel. "Modélisation interactive : amélioration du processus de reconstruction d'un modèle 3D par la compression temps réel." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25372/25372.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Bui, Cao Vu. "Modélisation d'environnements intérieurs par reconstruction 3D en temps réel et extraction de plans architecturaux 2D." Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous explorons le problème de la reconstruction complète d’un environnement intérieur en utilisant des données mixtes issues de la caméra RGB-D (couleur plus profondeur) de faible coût et de la centrale inertielle. Le processus de numérisation est réalisé en temps réel, en déplacement avec 6 degrés de liberté du système de numérisation. Nous nous concentrons sur les systèmes mobiles avec des contraintes informatiques, tels que les smartphones ou les tablettes. Les problèmes problématiques présentent un ensemble de défis fondamentaux : l'estimation du positionnement et de la trajectoire du périphérique lorsqu'il se déplace pendant l'acquisition de l'environnement et l'utilisation de structures de données légères pour stocker la représentation de la scène reconstruite. Le système doit être optimisé et efficace pour la mémoire, de sorte qu'il puisse fonctionner en temps réel, à bord de l'équipement mobile. Nous proposons également une nouvelle méthode de reconstruction de la surface, nommé Dodécaèdre Mapping, une solution de triangulation discrète pour la surface complète de l'environnement intérieur. L’algorithme tente d'approximer le maillage surfacique en déformant et en collant la surface affinée du dodécaèdre sur le nuage de points numérisé. Le dernier module de cette mission de recherche consiste à développer des outils de l'extraction automatique / semi-automatique de plans architecturaux 2D à partir de la reconstruction 3D de la scène scannée. Ce processus d'extraction est possible à partir du nuage de points 3D ou du maillage en définissant un plan de coupe
Scene reconstruction is the process of building an accurate geometric model of one's environment from We explore the problem of complete scene reconstruction in indoor environments using mixed - data from the low-cost RGB-D camera and the inertial unit. The scanning process is realized in real-time, on the move with 6DoF of the numerizing system. We focus on computationally-constrained mobile systems, such as smartphone or tablet devices. Problematic issues present a set of fundamental challenges - estimating the state and trajectory of the device as it moves while scanning environment and utilizing lightweight data structures to hold the representation of the reconstructed scene. The system needs to be computationally and memory-efficient, so that it can run in real time, on-board the mobile device. The point-cloud resulted in the above module, which is non-structured and noisy cause of the quality of the low-cost sensor, needed a new method for the surface reconstruction. Our Dodecahedron Mapping is presented like a triangulation solution for the completed indoor environment scanning. After filtering and smoothing the point cloud, the algorithm tries to approximating the surface mesh by deforming and pasting the dodecahedron surface to the scanned point cloud. And the last stage of this research mission is to developing tools for the automatic extraction of 2D architectural plans from the 3D scanned building scene. This extracting process is also possible from the 3D point cloud or mesh by defining a section plane
37

Bauer, Armelle. "Modélisation anatomique utilisateur-spécifique et animation temps-réel : Application à l'apprentissage de l'anatomie." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité de l’anatomie fait de son apprentissage une tâche difficile. Au fil des années, différents supports de connaissances ont vu le jour dans le but de représenter et structurer l’anatomie : des dessins au tableau, aux livres d’anatomie, en passant par l’étape incontournable de la dissection, et des travaux pratiques sur maquettes 3d. Il est néanmoins difficile d’appréhenderla dimension dynamique de l’anatomie avec les outils d’apprentissage conventionnels ; connaissance qui est pourtant essentielle à la formation des médecins. A travers ces travaux de thèse nous proposons un système original et innovant pour l’apprentissage de l’anatomie intitulé « Living Book of Anatomy » (LBA). L’idée étant, pour un utilisateur donné, de superposer à sa propre image une maquette anatomique 3d (peau, squelette, muscles et viscères) et del’animer en mimant les mouvements de celui-ci. Nous parlons ici d’une application temps-réel de type « miroir augmenté ». Nous utilisons la Kinect comme capteur de mouvement.Le premier défi à relever est l’identification de caractéristiques morphologiques qui nous permettront de recaler notre maquette anatomique 3d sur l’utilisateur. Nous proposons ici deux technologies interchangeables en fonction des besoins. La première méthode, temps-réel, est basée sur l’utilisation de transformations affines attachées entre les repères positionnés à chaque articulation du squelette donné par la Kinect pour déformer la maquette 3d à l’aide de poids de skinning prédéfinis. La seconde méthode, plus couteuse en temps (de l’ordre de quelques minutes), se découpe en trois parties : dans un premier temps nous déformons la peau à l’aide de la position des articulations du squelette d’animation Kinect et du nuage de pointpartiel de l’utilisateur ; à partir de cela et de règles anatomiques strictes nous déformons le squelette ; pour finir nous déformons les tissus mous pour qu’ils comblent l’espace entre le squelette et la peau. Le second défi concerne la capture réaliste et temps-réel des mouvements utilisateurs. Reproduire le comportement des structures anatomiques est une tâche complexe due aux informations Kinect souvent partielles et très bruitées. Nous proposons ici l’utilisation de règles anatomiques concernant les articulations du corps (axes de rotation et butées articulaires) pour contraindre les mouvements donnés par la Kinect et obtenir des mouvements réalistes. Pour obtenir des mouvements fluides nous nous proposons d’utiliser des filtrages, notamment le filtre de Kalman. Le dernier défi concerne la dominante de retour visuel et d’interaction.Lors de ces travaux nous nous sommes tout particulièrement intéressés à un renducorps complet pour montrer le fonctionnement général du corps humain et de ces différentes articulations. Nous avons également choisi le membre inférieur comme structure anatomique d’intérêt avec pour but la mise en avant de phénomènes anatomiques spécifiques, comme l’activité musculaire.Les différents éléments ont été intégrés dans un système opérationnel présenté en détails dans ce manuscrit de thèse. Grâce à des expérimentations - avec des étudiants et des professionnels de différents domaines - et la présentation de ces travaux sous forme de démonstrations lors de différents congrès, nous avons validé cet outil
To ease the complex task of anatomy learning, there exist many ways to represent and structure anatomy : illustrations, books, cadaver dissections and 3d models. However, it is difficult to understand and analyse anatomy motion, which is essential for medicine students. We present the "Living Book of Anatomy" (LBA), an original and innovative tool to learn anatomy. For a specific user, we superimpose a 3d anatomical model (skin, skeleton, muscles and visceras) onto the user’s color map and we animate it following the user’s movements. We present a real-time mirror-like augmented reality (AR) system. A Kinect is used to capturebody motions.The first innovation of our work is the identification of the user’s body measurements to register our 3d anatomical model. We propose two different methods to register anatomy.The first one is real-time and use affine transformations attached to rigid positioned on each joint given by the Kinect body tracking skeleton in order to deform the 3d anatomical model using skinning to fit the user’s measurements.The second method needs a few minutes to register the anatomy and is divided in 3 parts : skin deformation (using Kinect body tracking skeleton and the Kinect partial point cloud), with it and strict anatomical rules we register the skeleton. Lastly we deformm the soft tissues to completly fill the space inbetween the registered skeleton and skin.Secondly, we want to capture realistically and in real-time the user’s motion. To do that we need to reproduce anatomical structure motion but it is a complex task due to the noisy and often partial Kinect data. We propose here the use of anatomical rules concerning body articulations (angular limits and degrees of freedom) to constraint Kinect captured motion in order to obtain/gain plausible motions. a kalman filter is used to smooth the obtaiined motion capture.Lastly, to embed visual style and interaction, we use a full body reproduction to show general knowledge on human anatomy and its differents joints. We also use a lower-limb as structure of interest to higlight specific anatomical phenomenon, as muscular activity.All these tools have been integrated in a working system detailed in this thesis.We validated our tool/system by presenting it as a live demo during different conferences and through user studies done with students and professionnals from different backgrounds
38

Berranen, Mohamed Yacine. "Simulation 3D éléments-finis du muscle squelettique en temps-réel basée sur une approche multi-modèles." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS043/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les résultats des chirurgies orthopédiques correctrices sont difficilement prévisibles et, malheureusement, parfois infructueux. D’autres maladies résultantes d’un handicap majeur tel que l’escarre sont encore très peu comprises. Malgré une prévalence dans la population conséquente, peu d’études ont été menées sur ces thèmes. L’étude volumétrique du muscle en tant que tissu mou actif manque d’informations détaillées. Particulièrement les déformations et raideurs subséquentes aux contractions de muscles à arrangement de fascicules complexes. La modélisation volumétrique des muscles, fournirait un outil puissant pour la simulation personnalisée des contraintes subies par le corps, durant des contactes prolongés ou récurrents avec des dispositifs médicaux standards et inadaptés à la morphologie, mais aussi la planification d’opérations chirurgicales ou de séquences de stimulation électrique fonctionnelle. Il n’existe actuellement aucun logiciel permettant la reconstruction automatique de l’architecture des fascicules, aponévroses et tendons à partir d’acquisitions IRM d’un patient spécifique. La méthode actuelle de modélisation volumétrique du muscle est coûteuse en temps de calcul, donc inefficaces pour des simulations temps-réel du comportement du système musculo-squelettique avec représentation des fonctions physiologiques. Cette thèse est dirigée par les contributions nombreuses qui restent encore à apporter dans le domaine. Les méthodes de modélisation actuelles basées sur la méthode des éléments finis classique sont complexes, manquent de flexibilité ou de précision en temps-réel. Nous proposons une approche multi-modèles basée sur le mapping barycentrique qui découple la fonction de densité d’énergie de déformations du muscle en un ensemble de modèles indépendants de moindre complexité, avec les objectifs suivants : - Améliorer la reconstruction de l’architecture musculaire à partir des acquisitions IRM en terme de complexité et flexibilité. - Séparer la modélisation du muscle en modèles simple et indépendants, de manière à offrir plus de flexibilité, en réduisant la complexité, qui permettront de découpler les résolutions des éléments déformables des éléments actifs du muscle. - En diminuant le nombre d’éléments finis garantissant la cohérence des résultats, nous diminuons le temps de calcul nécessaire à chaque pas de simulation .Nos méthodes s’inspirent des travaux précédents sur la représentation tri-dimensionnelle de la géométrie et l’architecture complexes des muscles de [Blemker and Delp, 2005]. De plus, la définition mathématique est étudiée [Chi et al., 2010] pour caractériser la densité d’énergie de déformations du muscle squelettique. En rapport avec les méthodes précédentes, nous revendiquons les avancées suivantes : - Amélioration de la représentation 3D des muscles de patients spécifiques avec architecture et géométrie complexes, à partir de mesures IRM. La méthode est plus flexible et rapide que les précédentes. - Une nouvelle méthode de modélisation des déformations musculaires via la modélisation découplée des différents tissus musculaires. Cette nouvelle approche permet une définition indépendante des fascicules musculaires, tissus conjonctifs, tendons et aponévroses en gardant une grande précision de déformations. Les performances sont confrontées au rendement de la méthode FEM classique. - Nous atteignons des vitesses de simulation élevées de muscles complexes sur des machines standards par rapport à la FEM. Les performances nous ont permis de simuler en temps-réel la force et les déformations d’un muscle d’individus spécifiques, avec une entrée d’activation actualisée en temps-réel à partir de mesures EMG. - La modélisation d’un muscle nécessite plus de compétence qu’une équipe de recherche peut envisager maitriser. L’approche multi-modèles permet un travail collaboratif, où chaque spécialiste se focalise uniquement sur son domaine de compétence. La modélisation en est extrêmement simplifiée
Corrective orthopedic surgeries results are difficult to be predicted and, unfortunately, sometimes unsuccessful. Other diseases resulting from a motor disability as bedsores are still poorly understood, despite a significant prevalence in the population. However, studies on these topics still insufficient especially for the analysis considering the muscle as a soft tissue volumetric organ. Muscle fascicule architectures and their correlation with movement efficiency is poorly documented, it lack of the detailed information regarding its volumetric deformations and stiffness changes along with muscle contractions.Muscle volumetric modeling, would provide a powerful tool for the personalized accurate simulation of body stresses of disabled or SCI patients during prolonged or friction contacts with standard medical devices non-adapted to particular morphologies, but also the planning of surgeries or functional electrical stimulation sequences.There is currently no software for automatic reconstruction of the architecture of fascicles, aponeurosis and tendons from MRI acquisitions of a specific subject. Actual volumetric muscle modeling is expensive in computational time, and not effective for real-time simulations of musculoskeletal system behavior with representation of physiological functions. The objective of this thesis is directed by the many contributions that have yet to make in the area. The current modeling methods based on the conventional finite element method are complex, inflexible or inaccurate in real-time. We propose a multi-model based on barycentric mapping approach that decouples the muscle strain density energy function into a set of independent less complex models, with the following objectives:- Improve complex muscle architecture reconstruction from the MRI acquisitions in term of complexity and flexibility.- Split muscle modeling into simple independent models, to offer more flexibility and reducing complexity of modeling which allows to have independent resolutions between deformable elements and muscle fiber elements..- By reducing the number of finite elements ensuring consistency of results of force and deformations, we reduce the computation time required for each simulation.Our methods are inspired by the previous work on the three-dimensional representation of the geometry and the complex architecture of muscles [Blemker and Delp, 2005]. In addition, the mathematical definition is studied [Chi et al., 2010] to characterize the energy density of deformations of skeletal muscle.Related with the above methods, we demand the following advances:- Improved three-dimensional representation of specific patients with muscle architecture and complex geometry from MRI measurement for personalized modeling. The method is more flexible and faster than previous.- A novel modeling method for muscle deformation via decoupled modeling of solid and muscle fiber mechanics is established. This new modeling allowed independent definitions between deformable elements and fiber force generation elements while keeping its muscle deformation accuracy. The performance is compared to conventional FEM method. - We reach high computational speed on standard machines for muscle complex simulations compared to FEM. Real-time simulation of specific person’s muscle strain and force is performed with an activation input updated in real-time from surface EMG measures.- Muscle modeling requires interdisciplinary knowledge from different research team members. The multi-model approach allows collaborative work, where each specialist focuses only on its area of expertise thanks to the modular designed modeling
39

Nogues, Jean-François. "Identification et localisation spatiale de cibles sous-marines. Apport d'un noyau temps réel à la réalisation d'une instrumentation évolutive." Toulouse 3, 1994. http://www.theses.fr/1994TOU30115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette these est de concevoir et realiser une instrumentation portable, autonome et evolutive capable de saisir et traiter les signaux issus d'un echosondeur, dans le cadre de l'etude des eaux continentales. Il s'agit de localiser dans l'espace des cibles sous-marines telles que des poissons ou le fond, et d'evaluer ainsi la biomasse pisciaire contenue dans l'espace echantillonne. Les elements d'acoustique sous-marine relatifs a ce sujet sont exposes dans le premier chapitre, incluant la description des caracteristiques physiques du milieu aquatique ainsi que l'etude de la detection des cibles, en particulier des poissons. La localisation horizontale des cibles a ete etudiee dans le deuxieme chapitre et a conduit au choix du systeme gps de radiolocalisation par satellites, decrit en detail. L'instrumentation realisee est decrite d'un point de vue materiel et logiciel dans le troisieme chapitre. Les algorithmes de traitement des signaux et la gestion de l'ensemble par un noyau temps reel os-9 y sont egalement decrits. Le dernier chapitre est dedie a la validation experimentale de l'instrumentation. Elle concerne la detection et l'identification des cibles par des essais sur simulateur, en cuve, in situ sur des poissons, et enfin a grande echelle sur plusieurs lacs. La mise en uvre de techniques differentielles a partir de deux recepteurs gps, dont un est inclus dans l'instrumentation, a permis l'obtention d'une precision de localisation horizontale inferieure a six metres. Celle-ci a ete mesuree en mode statique puis confirmee en mode dynamique par les resultats de nombreuses campagnes de mesures
40

Léger, Christophe. "Contribution au suivi volumique en temps réel du ventricule gauche par échocardiographie." Phd thesis, Université d'Orléans, 1993. http://tel.archives-ouvertes.fr/tel-00607860.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un des objectifs des recherches actuelles en échocardiographie est la visualisation des déformations volumiques de certaines cavités du coeur à partir de séquences d'images. Dans le cadre d'une stratégie globale de restitution tri-dimensionnelle en temps réel, cette thèse propose de modéliser les évolutions spatiale et temporelle du ventricule gauche, à toutes les étapes de la chaîne de traitement : échantillonnage d'un contour initial sur une image de la séquence ; fermeture éventuelle et suivi de ce contour échantillonné sur les autres images de la séquence ; modélisation de tous les contours puis du volume du ventricule ; visualisation du ventricule reconstruit à partir des paramètres du modèle. Toutes les propositions théoriques ont été validées sur des images écho¬cardio¬graphiques acquises avec une sonde tournante prototype. L'idée de base consiste à utiliser les propriétés de l'interpolation circulaire de Shannon et du lissage orthogonal de Fourier, en exploitant les quatre périodicités du problème : double périodicité spatiale 2π pour le volume découpé en plans méridiens (coupes apicales) et parallèles (coupes parasternales), double périodicité temporelle provenant des battements cardiaques et de la rotation de la sonde tournante. Les algorithmes sont appliqués sur des contours tracés manuellement sur les images tomographiques de la séquence, mais nous proposons une méthode de suivi automatique d'un contour à partir d'un seul tracé initial. Pour les périodicités spatiales, la méthode d'interpolation-lissage est mise en oeuvre sur le développement polaire d'un contour du ventricule, autour du centre d'inertie de ses échantillons. Ceci permet, à précision égale, d'économiser les paramètres du modèle. Pour les périodicités temporelles, cette méthode est appliquée sur les paramètres restitués en attitude dans un repère lié au ventricule, par une technique qui utilise les propriétés du signal analytique. Dans le cadre d'une étude de faisabilité, les résultats obtenus indiquent que la stratégie de modélisation proposée est bien adaptée au problème.
41

Belaroussi, Rachid. "Localisation du visage dans des images et séquences vidéo couleur." Paris 6, 2006. http://www.theses.fr/2006PA066338.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La localisation du visage consiste à déterminer la position du visage d'une personne présente dans une image. Notre approche est globale, elle opère une inspection de toutes les vignettes de l'image pour déterminer celle qui le contient le visage le plus vraisemblablement. Pour les images fixes, nous exploitons trois représentations différentes de l'image, chacune étant traitée par un modèle spécifique : un modèle d’apparence appris sur les traits du visage, un modèle géométrique d’ellipse et un modèle de la teinte chair. La fusion des trois modèles a une architecture parallèle, et est opérée par une somme pondérée déterminée par une approche connexionniste. D'autres approches de la combinaison de modèles sont aussi présentées et comparées. Pour traiter les vidéos en temps réel, deux approches de la poursuite de visages basées sur une modélisation de la teinte chair sont comparées : une segmentation en composante connexe et une approche statistique, le Camshift de Bradsky.
42

Robichaud, Vincent. "Architecture 3D sans contact et localisation par temps de vol pour tomographie optique diffuse par fluorescence." Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/1437.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie optique diffuse (TOD) désigne une technique d'imagerie biomédicale non-invasive. L'objectif ultime consiste à réaliser à l'aide de la lumière et de techniques optiques ce que l'on fait avec les techniques d'imagerie médicale mieux connues comme la tomodensitométrie (TDM; «X-ray computed tomography» (CT)), la tomographie d'émission par positrons (TEP), ou l'imagerie par résonance magnétique (IRM). Utilisée de façon traditionnelle, la TOD permet de retrouver la distribution spatiale des coefficients d'absorption et de diffusion optique dans les tissus biologiques. Avec l'utilisation des agents fluorescents, l'imagerie moléculaire est devenue un domaine très actif de la TOD. Exploiter ces agents par une technique de TOD par fluorescence (TODF) permet de visualier non-invasivement et en 3D les processus in vivo jusqu'à une profondeur d'environ 3 cm , ce que la microscopie optique ne peut pas faire. Plusieurs prototypes de systèmes TODF existent présentement. Le désavantage majeur que l'on y retrouve souvent est qu'il s'agit de systèmes exigeant des mesures avec contacts (utilisation de fibres optiques ou de fluides adaptateurs). Le problème rencontré avec une telle architecture en imagerie sur petit animal réside dans la difficulté d'amener des fibres optiques en contact avec l'animal. L'utilisation de fluides adaptateurs est également problématique puisqu'il est très difficile de mettre l'animal dans le fluide sans le noyer; et cela sans compter que les fluides apportent une atténuation et de la diffusion supplémentaire, le signal optique menant à des mesures plus bruitées. Des systèmes sans contact ont donc vu le jour, mais la majorité ont le même problème: ils n'exploitent qu'une partie de l'information pouvant être recueillie. Seules des mesures en rétrodiffusion ou transillumination sont faites, mais aucun système ne combine les deux. Des mesures en rétrodiffusion/transillumination fournissent davantage d'information ce qui permet de sonder plus profondément les tissus tout en gagnant au niveau de la résolution du scanner. Dans le cadre des présents travaux, une architecture 3D sans contact, intégrant une configuration annulaire permettant des mesures en rétrodiffusion/transillumination est présentée. Un autre aspect très présent au niveau des systèmes sans contact est l'utilisation de mesures à régime continu («continuons wave» (CW)). Avec de telles mesures, toute dépendance au temps est alors impossible, ce qui signifie une perte d'information. Les mesures résolues en temps («time-resolved» (TR)) permettent d'exploiter cette dépendance temporelle. Davantage d'information peut donc être utilisée, comme la possibilté de distinguer les différents types de photons. Une technique novatrice permettant la localisation 3D d'une inclusion fluorescente exploitant des mesures TR sera présentée. Des résultats illustrant la localisation d'une inclusion démontrent le potentiel de cette nouvelle approche fondée sur le temps de vol des premiers photons.
43

Dutreve, Ludovic. "Paramétrisation et transfert d'animations faciales 3D à partir de séquences vidéo : vers des applications en temps réel." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00863883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'animation faciale est l'un des points clés dans le réalisme des scènes 3D qui mettent en scène des personnages virtuels. Ceci s'explique principalement par les raisons suivantes : le visage et les nombreux muscles qui le composent permettent de générer une multitude d'expressions ; ensuite, notre faculté de perception nous permet de détecter et d'analyser ses mouvements les plus fins. La complexité de ce domaine se retrouve dans les approches existantes par le fait qu'il est très difficile de créer une animation de qualité sans un travail manuel long et fastidieux. Partant de ce constat, cette thèse a pour but de développer des techniques qui contribuent au processus de création d'animations faciales. Trois thèmes sont principalement abordés. Le premier concerne la paramétrisation du visage pour l'animation. La paramétrisation a pour but de définir des moyens de contrôle pour pouvoir déformer et animer le visage. Le second s'oriente sur l'animation, et plus particulièrement sur le transfert d'animation. Le but est de proposer une méthode qui permette d'animer le visage d'un personnage à partir de données variées. Ces données peuvent être issues d'un système de capture de mouvement, ou bien elles peuvent être obtenues à partir de l'animation d'un personnage virtuel qui existe déjà. Enfin, nous nous sommes concentrés sur les détails fins liés à l'animation comme les rides. Bien que ces rides soient fines et discrètes, ces déformations jouent un rôle important dans la perception et l'analyse des émotions. C'est pourquoi nous proposons une technique d'acquisition mono-caméra et une méthode à base de poses références pour synthétiser dynamiquement les détails fins d'animation sur le visage. L'objectif principal des méthodes proposées est d'offrir des solutions afin de faciliter et d'améliorer le processus de création d'animations faciales réalistes utilisées dans le cadre d'applications en temps réel. Nous nous sommes particulièrement concentrés sur la facilité d'utilisation et sur la contrainte du temps réel. De plus, nous offrons la possibilité à l'utilisateur ou au graphiste d'interagir afin de personnaliser sa création et/ou d'améliorer les résultats obtenus
44

Eynard, Rémy. "Investigation de l’impact de l’interaction sociale vocale sur l’expérience utilisateur dans les environnements 3D temps-réel immersif." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0013/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’expérience utilisateur est récemment devenue un sujet central dans la conception de produits ou services. Avec la démocratisation de la Réalité Virtuelle (RV), de plus en plus d’acteurs économiques prennent conscience du potentiel de la RV dans leurs secteurs respectifs.Dans ce contexte de plus en plus dynamique, l’expérience utilisateur (UX) permet d’anticiper les attentes des utilisateurs et des concepteurs afin de proposer l’expérience la plus satisfaisante possible. De plus, au travers de l’anticipation de l’expérience utilisateur, nous sommes en mesure de prédire de plus en plus précisément le degré d’adoption d’une solution technologique par les futurs utilisateurs. Nous avons aujourd’hui compris que la seule dimension technologique n’est plus suffisante pour assurer la réussite d’un produit matériel et/ou logiciel. En revanche, ce produit doit correspondre à l’usage que l’utilisateur compte en faire, et plus encore, il doit offrir une expérience unique, au travers de sensations, de perceptions, d’émotions et de réflexion, induisant un degré de satisfaction le plus élevé possible.Un consensus est depuis longtemps établi sur le fait que jouer, créer, apprendre ensemble est plus efficace et amusant qu’une activité solitaire. Partager et communiquer est primordial, c’est au travers des interactions sociales avec nos semblables que nous sommes capables de combler nombre de nos besoins, des plus pragmatiques aux plus éthérés. Nous avons, au travers de l’étude empirique conduite dans le cadre de cette thèse, apporté une meilleure compréhension de l’impact des interactions sociales (par la modalité vocale) dans le processus d’expérience utilisateur en 3D-IVE (3D Immersive Virtual Environment). À l’aide d’un état de l’art s’appuyant sur les études existantes de l’impact de l’interaction sociale sur la présence virtuelle (sentiment d’être là) ou l’engagement de l’utilisateur (flow). Nous proposons une vision plus holistique de cet impact par une étude centrée sur l’expérience utilisateur globale.Pour ce faire, nous avons conduit trois expérimentations immergeant des binômes d’utilisateurs dans un 3D-IVE. Par la répartition des participants en deux échantillons, l’un étant en mesure de communiquer vocalement, l’autre ne l’étant pas, nous avons pu comparer des données quantitatives et qualitatives afin de mettre en exergue l’impact des interactions sociales (vocales) sur l’expérience vécue. Les résultats quantitatifs obtenus ont confirmé nos postulats quant à l’impact bénéfique de l’interaction sociale (vocale) sur les performances des utilisateurs. Fait surprenant, nous avons aussi observé que la présence virtuelle ressentie tendait à être plus forte lorsque les participants, ne pouvant pas communiquer vocalement, se complétaient par le phénomène naturel de « translucence ». Toutefois, nous avons dû pondérer ces résultats, eu égard aux groupes de discussion qui ont fait émerger des différences d’appréhension de la performance, de la présence virtuelle et sociale. Cette triangulation entre quantitatif objectif, quantitatif subjectif et qualitatif a confirmé la nature variable de l’UX (en fonction de l’utilisateur et du temps) et l’influence forte de la nature de l'activité de l’expérimentation.Nos travaux ont permis de valider la capacité des environnements immersifs simples (logiciel de jeu Minecraft) à générer un bon niveau de présence virtuelle et d’engagement et, de manière générale, un haut niveau de satisfaction chez les utilisateurs. Nous apportons aussi un éclairage sur les méthodes à employer dans ce type de contexte vis-à-vis de la conception des tâches à accomplir; en effet, une même tâche présentée différemment peut induire une expérience assez dissemblable. Malgré la difficulté à généraliser un résultat dû à la nature très variable de l’expérience utilisateur, nous pensons que nos travaux contribueront à une plus grande compréhension de l’impact des interactions sociales vocales sur l’UX dans les 3D-IVEs
User experience has recently become a central issue regarding to the design of products or services. With the democratization of Virtual Reality (VR), more and more economic actors start to being aware of the potential of VR in their respective sectors.In this increasingly dynamic context, user experience (UX) allows the anticipation of users’ and designers’ expectations in order to offer the most satisfying experience as possible. In addition, through the anticipation of user experience, we are able to predict more precisely the adoption level of a technological solution by future users. We have understood today that the only technological dimension is no longer enough to ensure the success of a hardware and/or software product. However, this must fit to the use that user will have of it, and more, it must provide a unique experience, through sensations, perceptions, emotions and thinking, inducing the highest satisfaction possible.A consensus has been established since a long time about the fact that play, create, learn together are more effective and fun than a lonely activity. Share and communicate is a primary need, it is through social interactions with our peers that we are able to fulfill many of our needs, from the most pragmatic to the most ethereal. We have, through the empirical study conducted as part of this thesis, brought a better understanding of the impact of social interactions (vocal mode) on the user experience process in a 3D-IVE (3D Immersive Virtual Environment). Through a literature review based on existing studies of the impact of social interaction on virtual presence (feeling of being there) or on users’ engagement (flow), we propose a more holistic view of this impact by a study focused on the overall user experience.With this aim, we have conducted three experiments immersing pairs of users in a 3D-IVE. By the division of participants into two samples, one being able to vocally communicate, the other not being so, we were able to compare quantitative and qualitative data to highlight the impact of social interactions (voice) on the user experience. Obtained quantitative results have confirmed our assumptions regarding the beneficial impact of social interaction (voice) on user performance. Surprisingly, we also observed that the perceived virtual presence tended to be higher when participants that were not able to communicate vocally, relied on the natural phenomenon of “translucence”. However, we had to balance these results, given to focus groups that have arisen differences regarding to the apprehension of performances, virtual and social presence. This triangulation between objective quantitative, subjective quantitative and qualitative data has confirmed the variable nature of the UX (depending on the user and time) and the strong influence of the nature of the activity of the experimentation.Our studies have validated the ability of simple immersive environments (Minecraft game software) to generate a high level of virtual presence and engagement, and in general, a high level of satisfaction among users. We also provide an insight into methods to be used in this type of context regarding to the design of tasks. Indeed, the same task presented differently can induce a quite dissimilar experience. Despite the difficulty to generalize a result due to the highly variable nature of user experience, we believe that our work will contribute to a greater understanding of the impact of vocal social interactions on UX in 3D-IVEs
45

Dutreve, Ludovic. "Paramétrisation et transfert d’animations faciales 3D à partir de séquences vidéo : vers des applications en temps réel." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’animation faciale est l’un des points clés dans le réalisme des scènes 3D qui mettent en scène des personnages virtuels. Ceci s’explique principalement par les raisons suivantes : le visage et les nombreux muscles qui le composent permettent de générer une multitude d’expressions ; ensuite, notre faculté de perception nous permet de détecter et d’analyser ses mouvements les plus fins. La complexité de ce domaine se retrouve dans les approches existantes par le fait qu’il est très difficile de créer une animation de qualité sans un travail manuel long et fastidieux. Partant de ce constat, cette thèse a pour but de développer des techniques qui contribuent au processus de création d’animations faciales. Trois thèmes sont principalement abordés. Le premier concerne la paramétrisation du visage pour l’animation. La paramétrisation a pour but de définir des moyens de contrôle pour pouvoir déformer et animer le visage. Le second s’oriente sur l’animation, et plus particulièrement sur le transfert d’animation. Le but est de proposer une méthode qui permette d’animer le visage d’un personnage à partir de données variées. Ces données peuvent être issues d’un système de capture de mouvement, ou bien elles peuvent être obtenues à partir de l’animation d’un personnage virtuel qui existe déjà. Enfin, nous nous sommes concentrés sur les détails fins liés à l’animation comme les rides. Bien que ces rides soient fines et discrètes, ces déformations jouent un rôle important dans la perception et l’analyse des émotions. C’est pourquoi nous proposons une technique d’acquisition mono-caméra et une méthode à base de poses références pour synthétiser dynamiquement les détails fins d’animation sur le visage. L’objectif principal des méthodes proposées est d’offrir des solutions afin de faciliter et d’améliorer le processus de création d’animations faciales réalistes utilisées dans le cadre d’applications en temps réel. Nous nous sommes particulièrement concentrés sur la facilité d’utilisation et sur la contrainte du temps réel. De plus, nous offrons la possibilité à l’utilisateur ou au graphiste d’interagir afin de personnaliser sa création et/ou d’améliorer les résultats obtenus
Facial animation is one of the key points of the realism of 3D scenes featuring virtual humans. This is due to several reasons : face and the many muscles that compose it can generate a multitude of expressions ; then, our faculty of perception provides us a great ability to detect and analyze its smallest variations. This complexity is reflected in existing approaches by the fact that it is very difficult to create an animation without a long and a tedious manual work. Based on these observations, this thesis aims to develop techniques that contribute to the process of creating facial animation. Three main themes have been addressed. The first concerns the rigging issue of a virtual 3D face for animation. Rigging aims at defining control parameters in order to deform and animate the face. The second deals with the animation, especially on the animation retargeting issue. The goal is to propose a method to animate a character’s face from various data. These data can be obtained from a motion capture system or from an existing 3D facial animation. Finally, we focus on animation finescale details like wrinkles. Although these are thin and discreet, their deformations play an important part in the perception and analysis of emotions. Therefore we propose a monocular acquisition technique and a reference pose based method to synthetise dynamically animation fine details over the face. The purpose is to propose methods to facilitate and improve the process of creating realistic facial animations for interactive applications. We focused on ease to use in addition to the real-time aspect. Moreover, we offer the possibility to the user or graphist to interact in order to personalize its creation and/or improve the results
46

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
47

Kolar, Anthony. "Contribution à la conception et réalisation d'un capteur de vision 3D intégré." Paris 6, 2009. http://www.theses.fr/2009PA066466.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La nécessité d'avoir des systèmes capables de percevoir le relief est apparue dès le début de la photographie. Cette nécessité a conduit à la réalisation des dispositifs macroscopiques qui avaient tous comme point commun la perception du relief de l'environnement humain. Ces systèmes utilisent diverses méthodes de reconstruction: stéréoscopie passive ou active, temps de vols, etc. Les avancées technologiques laissent entrevoir la possibilité de réaliser des systèmes intégrés de vision en trois dimensions sur puce. Cela ouvre de nouveaux champs applicatifs, comme la vision précise en trois dimensions in vivo dans le corps humain lors d'examen de type endoscopique. A ce jour peu de travaux tendent à concevoir un capteur intégré polyvalent malgré les avantages évidents pour ces nouvelles applications. Jusque là, la principale restriction était due à la taille, à la vitesse de fonctionnement ou à la consommation des appareils. Pour répondre aux besoins d'applications émergentes telles que l'endoscopie 3D, le projet Cyclope a été lancé. Il s'agit d'une action de recherche au sein de laquelle est étudiée la conception d’un capteur de vision 3D intégré temps-réel avec des capacités de communication sans fil basées sur la stéréoscopie active. Ce capteur est alors capable de fournir une représentation texturée en trois dimensions d'une scène. Cette thèse traite de l'analyse des solutions envisageables pour la réalisation d'une instrumentation d'acquisition et de projection du motif et de sa mise en oeuvre. La principale contrainte de notre application consiste en l'acquisition quasi simultanée de la texture de l'image dans le spectre du visible et du motif projeté. Ayant opté pour un laser pulsé dont sa longueur d'onde est dans le proche infrarouge, pour ne pas dénaturer la scène, plusieurs solutions étaient possibles. Malheureusement, aucune d'entre elles n'étaient pleinement satisfaisante. Dans ce contexte, j'ai opté pour une approche d'acquisition énergétique et temporelle basée sur l'existence d'un gap énergétique entre la scène et le motif projeté à cette longueur d'onde. Un démonstrateur macroscopique a été réalisé afin de valider notre approche et d'estimer ces performances. L'ensemble est composé d'une caméra CMOS dotée de CAN 8 bits externe, d'un projecteur de motif infrarouge générant une matrice de 49 points, d'une carte FPGA Xilinx Virtex2Pro et d'un module de communication sans fil ZIGBEE. Sur le FPGA est mis en oeuvre les architectures de contrôle et de synchronisation, de pré-traitements, de reconstruction et de communication. Les performances du systèmes ont été évaluées selon trois axes distincts: les performances de la séparation motif/arrière plan pour différentes conditions d'utilisation, l'impact de la méthode sur la précision de la reconstruction et enfin l'estimation de la consommation énergétique globale du système pour plusieurs cibles.
48

Adambounou, Kokou. "Mise au point et installation d'une plateforme de télé-expertise échographique temps réel et de télédiagnostic échographique temps différé au CHU de Lomé pour servir les centres médicaux périphériques." Thesis, Tours, 2012. http://www.theses.fr/2012TOUR3313/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction : La télémédecine en général et la télé échographie en particulier est une des solutions indéniables au problème de pénurie de médecins spécialistes notamment dans les pays en développement au regard des progrès sans cesse croissant des nouvelles technologies de I‘information et de la communication. Objectif : Concevoir et valider un système de télé expertise échographique temps réel et de télédiagnostic échographique temps différé entre sites expert (CHU) et isolé (hôpitaux périphériques) avec une infrastructure moindre coût accessible même aux pays à faible environnement numérique comme le Togo. Matériels et Méthodes : Une technologie innovante de télétransmission (vidéos échographiques et d’ambiance) temps réel via internet à base de Caméra réseau AXIS 207 et de Serveur vidéo internet AXIS 243 dotée d’adresse IP ou un logiciel d’accès à distance (LogMeln) permet une télé expertise temps réel si le centre isolé dispose d’un échographiste peu expérimenté
Introduction: Telemedicine generally, and telesonography in particular, is one of undeniable solutions to the problem of specialists’ shortage specially in developing countries with regard to the progress ceaselessly growing of the new technologies of information and communication. Purpose: Design and validate a .system of real time ultrasound tele-expertise, and delayed ultrasound tele-diagnostic between isolated peripherals hospitals and University Hospital center (Expert center) functioning with a lesser infrastructure cost accessible to low digital environment countries like Togo. Materials and Methods: An IP camera and an internet video server are installed in a geographically isolated site equipped with an echograph served by an echographist of first level. Real time tele-expertise (second opinion diagnosis) is possible via internet with an expert center
49

Rabatel, Gilles. "Localisation de fruits en environnement naturel par segmentation d'images polychromes : application à la réalisation d'un dispositif de localisation en temps réel pour la récolte robotisée des fruits fragiles." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10619.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse des proprietes de reflexion des objets constituant les scenes fruitieres et de leurs conditions d'eclairage, montre que la segmentation d'images polychromes est une approche pertinente pour y localiser les fruits. Un dispositif de localisation en temps reel a ete concu selon ce principe, et implante sur un prototype de robot de recolte de pommes. Le choix du capteur d'images et notamment de la sensibilite spectrale de ses differentes voies, a ete determinant quant aux resultats obtenus
50

Bossu, Jérémie. "Segmentation d’images pour la localisation d’adventices : application à la réalisation d’un système de vision pour une pulvérisation spécifique en temps réel." Dijon, 2007. http://www.theses.fr/2007DIJOS079.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography