Tesi sul tema "Suivi d'image"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Suivi d'image.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Suivi d'image".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Ben, Himane Mohamed Selim. "Vers une approche unifiée pour le suivi temps réel et l'asservissement visuel". Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1393.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Mis à part les domaines traditionnels de la manipulation et de la saisie robotisées, la commande référencée vision offre aujourd'hui des applications dans des contextes variés qui englobent la vision par ordinateur, l'automatique et la théorie de la commande. Afin de concevoir des méthodes de commande référencée vision, il est possible d'intégrer des techniques de vision et de commande qui ont été conçues séparément. Au lieu de considérer séparément les techniques de vision et de commande, dans cette thèse, nous les avons intégrées dans une approche unifiée. Nous avons conçu un système générique, flexible et robuste qui peut être utilisé pour une grande variété d'applications robotiques. Au cours de cette thèse, nous avons contribué dans divers domaines allant dans le sens de la conception d'un système complet. Deux contributions majeures sont présentées:1- Une approche de suivi visuel d'objets plans grâce à leurs textures dans l'image en utilisant une minimisation efficace au second-ordre appelée la méthode ESM. Le suivi visuel obtenu a des propriétés de convergence meilleures que celles des méthodes de suivi visuel existantes (domaine, taux et fréquence de convergence). Cette approche a été généralisée à l'estimation du mouvement directement dans l'espace Cartésien. 2- Une nouvelle commande par asservissement visuel 2D est introduite. Cette commande est stable localement et, contrairement à toutes les méthodes existantes, elle ne nécessite pas de mesure du modèle de l'objet par rapport auquel la commande est effectuée. Seules des informations issues des images de référence et courante suffisent pour calculer la loi de commande
Nowadays, in addition to the classical domain of the robotic manipulation, vision-based control offers a large spectrum of applications in various contexts using computer vision and control theory. One possibility to develop vision-based control algorithms is to integrate methods and approaches developed in a separately by the vision and the control communities. Instead of considering vision and control techniques separately, in this thesis, they are integrated in a unified framework. We developed a generic, flexible and robust system that can be used by a wide variety of robotic applications. We made different contributions towards the conception of such complete system. Two major contributions are presented:1- A template-based visual tracking of objects in the image using an Efficient Second-order Minimization technique called the ESM technique. Compared to the existing methods, the proposed algorithm gives better convergence properties (bigger radius and higher rate and frequency of convergence). This approach has been generalized to the direct estimation in the Cartesian space of the relative camera/object motion. 2- A new 2D visual servoing is also introduced. The control law is locally stable and unlike all the existing methods, it does not need any a priori measure of the model of object with respect to which the visual servoing is performed. Only information extracted from the reference and the current images are used to compute the control law
2

Ieng, Sio-Song. "Méthodes robustes pour la détection et le suivi des marquages". Paris 6, 2004. http://www.theses.fr/2004PA066547.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Primet, Maël. "Méthodes probabiliste pour le suivi de points et l'analyse d'images biologiques". Phd thesis, Université René Descartes - Paris V, 2011. http://tel.archives-ouvertes.fr/tel-00669220.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse au problème du suivi d'objets, que nous abordons par des méthodes statistiques. La première contribution de cette thèse est la conception d'un algorithme de suivi de bactéries dans une séquence d'image et de reconstruction de leur lignage, travail ayant donné lieu à la réalisation d'une suite logicielle aujourd'hui utilisée dans un laboratoire de recherche en biologie. La deuxième contribution est une étude théorique du problème de la détection de trajectoires dans un nuage de points. Nous définissons un détecteur de trajectoires utilisant le cadre statistique des méthodes a contrario, qui ne requiert essentiellement aucun paramètre pour fonctionner. Ce détecteur fournit des résultats remarquables, et permet notamment de retrouver des trajectoires dans des séquences contenant un grand nombre de points de bruit, tout en conservant un taux de fausses détections de trajectoires très faible. Nous étudions ensuite plus spécifiquement le problème de l'affectation de nuages de points entre deux images, problème rencontré notamment pour la détection de trajectoires ou l'appariement d'images stéréographiques. Nous proposons d'abord un modèle théoriquement optimal pour l'affectation de points qui nous permet d'étudier les performances de plusieurs algorithmes classiques dans différentes conditions. Nous formulons ensuite un algorithme sans paramètre en utilisant le cadre a contrario, ce qui nous permet ensuite d'obtenir un nouvel algorithme de suivi de trajectoires.
4

Histace, Aymeric. "Détection et suivi robustes de structures sur des séquences d'images : application à l'IRM cardiaque marquée". Angers, 2004. http://www.theses.fr/2004ANGE0022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'intéresse à la détection et au suivi de données dans des séquences d'images. Nous montrons que l'intégration dans un modèle simple de contour actif d'énergies externes particulières permet une détection et un suivi robustes et fiables de structures. Ce travail s'organise autour de l'analyse quantitative de séquences IRM cardiaques marquées. L'étude de ces séquences d'images nécessite la mise en place de méthodes adaptées à la détection et au suivi des contours interne et externe du ventricule gauche, ainsi que à ceux de la grille de marquage. Pour la première étape, nous intégrons une énergie image fondée sur une analyse texturale des IRM marquées. Quant au suivi de la grille de tags, nous générons l'énergie externe par la mise en place d'un prétraitement des images de type diffusion anisotrope, fondé sur un formalisme informationnel utilisant le processus de l'Information Physique Extrême. L'ensemble des résultats obtenus a été validé par un expert médical
This thesis is dealing with the detection and the follow-up of structures in image sequences. We show that the integration of original external energies in a simple active contours model can lead to precise and reliable data detections. This work is presented through a particular application : the study of tagged cardiac MRI sequences. The study of those sequences can be divided into two parts : a detection and a follow-up of the internal and external boundaries of the Left Ventricle and a detection and a follow-up of the grid of tags. For the achievement of the first step, we propose the integration of a particular external energy which generation is based on a texture analysis of the tagged MRI. For the second, we propose an anisotropic diffusion of the images, which leading equation is based on an informational formalism using the Extreme Physical Information process. All the obtained results has been validated by a medical expert
5

Ireta, Munoz Fernando Israel. "Estimation de pose globale et suivi pour la localisation RGB-D et cartographie 3D". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4054/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce rapport de thèse présente une analyse détaillée de nouvelles techniques d'estimation de pose à partir des images de couleur et de profondeur provenant de capteurs RGB-D. Etant donné que l'estimation de la pose nécessite d'établir une cartographie en simultanée, la reconstruction 3D de la scène sera aussi étudié dans cette thèse. La localisation et la cartographie ont été largement étudiés par la communauté de robotique et de vision par ordinateur, et ces techniques ont aussi été largement employés pour la robotique mobile et les systèmes autonomes afin d'exécuter des tâches telles que le suivi de caméra, la reconstruction 3D dense ou encore la localisation robuste. Le défi de l'estimation de pose réside dans la façon de relier les mesures des capteurs pour estimer l'état système en position et en orientation. Lorsqu'une multitude de capteurs fournisse différentes observations des mêmes variables, il devient alors complexe de fusionner au mieux ces informations acquises à des instants différents. De manière à développer un algorithme efficace pour traiter ces problèmes, une nouvelle méthode de recalage nommée Point-to-hyperplane sera introduite, analysée, comparée et appliquée à l'estimation de pose et à la cartographie basée sur des frames-clés. La méthode proposée permet de minimiser différentes métriques sous la forme d'un seul vecteur de mesure en n-dimensions, sans avoir besoin de définir un facteur d'échelle qui pondère l'influence de chaque terme durant la minimisation d'énergie. Au sein du concept Point-to-hyperplane, deux lignes principales ont été examinées. Premièrement, la méthode proposée sera employée dans des applications d'odométrie visuelle et de cartographie 3D. Compte-tenu des résultats expérimentaux, il a été montré que la méthode proposée permet d'estimer la pose localement avec précision en augmentant le domaine et la vitesse de convergence. L'invariance est mathématiquement prouvée et des résultats sont fournis à la fois pour environnements réels et synthétiques. Deuxièmement, une méthode pour la localisation globale a été proposée qui adresse les problèmes de reconnaissance et de détection de lieux. Cette méthode s'appuie sur l'utilisation du Point-to-hyperplane combinée à une optimisation Branch-and-bound pour estimer la pose globalement. Étant donné que les stratégies de Branch-and-Bound permettent d'obtenir des alignements grossiers sans la nécessité d'avoir la pose initiale entre les images, le Point-tohyperplane peut être utiliser pour raffiner l'estimation. Il sera démontré que cette stratégie est mieux contrainte quand davantage de dimensions sont utilisées. Cette stratégie s'avère être utile pour résoudre les problèmes de désalignement et pour obtenir des cartes 3D globalement consistantes. Pour finir cette thèse et pour démontrer la performance des méthodes proposées, des résultats sur des applications de SLAM visuel et de cartographie 3D sont présentés
This thesis presents a detailed account of novel techniques for pose estimation by using both, color and depth information from RGB-D sensors. Since pose estimation simultaneously requires an environment map, 3D scene reconstruction will also be considered in this thesis. Localization and mapping has been extensively studied by the robotics and computer vision communities and it is widely employed in mobile robotics and autonomous systems for performing tasks such as tracking, dense 3D mapping and robust localization. The central challenge of pose estimation lies in how to relate sensor measurements to the state of position and orientation. When a variety of sensors, which provide different information about the same data points, are available, the challenge then becomes part of how to best fuse acquired information at different times. In order to develop an effective algorithm to deal with these problems, a novel registration method named Point-to-hyperplane Iterative Closest Point will be introduced, analysed, compared and applied to pose estimation and key-frame mapping. The proposed method allows to jointly minimize different metric errors as a single measurement vector with n-dimensions without requiring a scaling factor to tune their importance during the minimization process. Within the Point-to-hyperplane framework two main axes have been investigated. Firstly, the proposed method will be employed for performing visual odometry and 3D mapping. Based on actual experiments, it has been shown that the proposed method allows to accurately estimate the pose locally by increasing the domain of convergence and by speeding up the alignment. The invariance is mathematically proven and results in both, simulated and real environments, are provided. Secondly, a method is proposed for global localization for enabling place recognition and detection. This method involves using the point-to-hyperplane methods within a Branch-and-bound architecture to estimate the pose globally. Therefore, the proposed method has been combined with the Branch-and-bound algorithm to estimate the pose globally. Since Branch-and-bound strategies obtain rough alignments regardless of the initial position between frames, the Point-to-hyperplane can be used for refinement. It will be demonstrated that the bounds are better constrained when more dimensions are considered. This last approach is shown to be useful for solving mistracking problems and for obtaining globally consistent 3D maps. In a last part of the thesis and in order to demonstrate the proposed approaches and their performance, both visual SLAM and 3D mapping results are provided
6

Fontmarty, Mathias. "Vision et filtrage particulaire pour le suivi tridimensionnel de mouvements humains: applications à la robotique". Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00400305.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un défi majeur de la Robotique aujourd'hui est sans doute celui du robot personnel. Un objectif sous-jacent est de permettre à un robot mobile de naviguer de manière autonome dans un environnement de grandes dimensions en présence de public. Lors de son évolution, le robot doit pouvoir détecter et prendre en compte la présence d'humains dans son voisinage, par exemple pour les éviter, leur céder le passage, faciliter ou sécuriser leurs déplacements. Cependant, pour une interaction active, le robot doit également être capable de percevoir et d'interpréter leurs postures, leurs démarches ou leurs gestes. Dans ce but, nous souhaitons mettre en place un système de suivi visuel des mouvements humains à partir des caméras embarquées sur le robot. Une représentation 3D fruste de l'enveloppe corporelle est proposée à partir de considérations biomécaniques et anthropomorphes. La démarche consiste alors à recaler ce modèle dans les images obtenues en exploitant plusieurs indices visuels 2D (contours, couleur, mouvements) complétés par une reconstruction 3D éparse de la scène. Pour estimer les paramètres de situation et de configuration du modèle 3D, nous exploitons les techniques de filtrage particulaire, bien connues en suivi visuel. Des évolutions de l'algorithme générique de filtrage sont cependant envisagées afin de répondre plus efficacement au problème posé et de satisfaire des contraintes temporelles cohérentes avec le contexte applicatif. Afin d'aborder les problèmes de manière graduelle, deux contextes sont étudiés. Le premier, de type robotique ubitquiste, repose sur l'utilisation de caméras d'ambiance fixes proposant des points de vue différents et complémentaires de la scène à étudier. Le second, de type robotique mobile, exploite des caméras stéréoscopiques embarquées sur le robot.Ce travail a été effectué au sein du groupe Robotique Action Perception (RAP) du LAAS-CNRS.
7

Xu, Kele. "Visualisation tridimensionnelle de la langue basée sur des séquences d'image échographique en mode-B". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066498/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une interface vocale silencieuse (SSI) est un système permettant une communication vocale à partir d’un signal non audible. Un tel système emploie des capteurs qui enregistrent des données non-acoustiques, pour la reconnaissance et la synthèse vocales. Cependant, l’extraction des caractéristiques articulatoires robustes à partir de ces signaux reste un défi. La langue est une composante majeure de l'appareil vocal, et l'articulateur le plus important dans la production de parole. Une simulation réaliste du mouvement de la langue en 3D peut fournir une représentation visuelle directe et efficace de la production de parole. Cette représentation pourrait à son tour être utilisée pour améliorer les performances de reconnaissance vocale d'un SSI, ou servir d'outil dans le cadre de recherches sur la production de parole et de l'étude des troubles de l'articulation. Dans cette thèse, nous explorons un nouveau cadre de visualisation en trois dimensions de la langue, qui combine l'imagerie échographique 2D et une technique de modélisation tridimensionnelle fondée sur la physique. Tout d'abord, différentes approches sont utilisées pour suivre le mouvement de la langue dans les séquences d'images échographiques, qui peuvent être regroupées en deux principaux types de méthodes : le suivi de la granularité et le suivi de contour. Les méthodes de suivi du chatoiement (speckle tracking) comprennent le recalage de déformations (deformation registration), le flux optique, et la méthode de transformation de caractéristiques visuelles invariante à l'échelle (Scale-invariant feature transform, ou SIFT). En outre, une méthode de suivi réinitialisation basée sur l'image est proposée afin d'améliorer la robustesse du suivi du chatoiement. En comparaison avec le suivi de chatoiement, l'extraction du contour de la surface de la langue à partir d'images échographiques présente des performances supérieures et une meilleure robustesse. Dans cette thèse, un nouvel algorithme de suivi de contour est présenté pour des séquences d'images échographiques de la langue. Cet algorithme permet de suivre le mouvement des contours de la langue sur de longues durées avec une bonne robustesse. Pour résoudre la difficulté causée par les segments manquants dus au bruit ou celle causée par la surface mi-sagittale de la langue qui est parallèle à la direction de propagation de l'onde ultrasonore, nous proposons d’utiliser des contours actifs avec une contrainte de similitude de contour, qui fournissent des informations a priori sur la forme de la langue. Des expériences sur des données synthétiques et sur des images réelles acquises sur différents sujets à la cadence de 60 images par seconde montrent que la méthode proposée donne un bon contour de suivi pour ultrasons des séquences d'images, même sur des durées de quelques minutes. Cette technique peut par conséquent être utile dans des applications telles que la reconnaissance vocale où de très longues séquences doivent être analysées dans leur intégralité…
A silent speech interface (SSI) is a system to enable speech communication with non-audible signal, that employs sensors to capture non-acoustic features for speech recognition and synthesis. Extracting robust articulatory features from such signals, however, remains a challenge. As the tongue is a major component of the vocal tract, and the most important articulator during speech production, a realistic simulation of tongue motion in 3D can provide a direct, effective visual representation of speech production. This representation could in turn be used to improve the performance of speech recognition of an SSI, or serve as a tool for speech production research and the study of articulation disorders. In this thesis, we explore a novel 3D tongue visualization framework, which combines the 2D ultrasound imaging and 3D physics-based modeling technique. Firstly, different approaches are employed to follow the motion of the tongue in the ultrasound image sequences, which can be divided into two main types of methods: speckle tracking and contour tracking. The methods to track speckles include deformation registration, optical-flow, and local invariant features-based method. Moreover, an image-based tracking re-initialization method is proposed to improve the robustness of speckle tracking. Compared to speckle tracking, the extraction of the contour of the tongue surface from ultrasound images exhibits superior performance and robustness. In this thesis, a novel contour-tracking algorithm is presented for ultrasound tongue image sequences, which can follow the motion of tongue contours over long durations with good robustness. To cope with missing segments caused by noise, or by the tongue midsagittal surface being parallel to the direction of ultrasound wave propagation, active contours with a contour-similarity constraint are introduced, which can be used to provide “prior” shape information. Experiments on synthetic data and on real 60 frame per second data from different subjects demonstrate that the proposed method gives good contour tracking for ultrasound image sequences even over durations of minutes, which can be useful in applications such as speech recognition where very long sequences must be analyzed in their entirety…
8

Lelong, Thibault. "Reconnaissance des documents avec de l'apprentissage profond pour la réalité augmentée". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet doctoral se focalise sur les problématiques associées à l'identification d'images et de documents dans les applications de réalité augmentée utilisant des marqueurs, en particulier lors de l'utilisation d'appareils photo. La recherche s'inscrit dans un contexte technologique où l'interaction via la réalité augmentée est essentielle dans plusieurs domaines, y compris l'industrie, qui requièrent des méthodologies d'identification fiables.Dans une première phase, le projet évalue diverses méthodologies d'identification et de traitement d'image au moyen d'une base de données spécialement conçue pour refléter les défis du contexte industriel. Cette recherche permet une analyse approfondie des méthodologies existantes, révélant ainsi leurs potentiels et leurs limites dans divers scénarios d'application.Par la suite, le projet propose un système de détection de documents visant à améliorer les solutions existantes, optimisé pour des environnements tels que les navigateurs web. Ensuite, une méthodologie innovante pour la recherche d'images est introduite, s'appuyant sur une analyse de l'image en sous-parties afin d'accroître la précision de l'identification et d'éviter les confusions d'images. Cette approche permet une identification plus précise et adaptative, notamment en ce qui concerne les variations de la mise en page de l'image cible.Enfin, dans le cadre de travaux en collaboration avec la société ARGO, un moteur de suivi d'image en temps réel a été développé, optimisé pour des appareils à basse puissance et pour les environnements web. Ceci assure le déploiement d'applications web en réalité augmentée et leur fonctionnement sur un large éventail de dispositifs, y compris ceux dotés de capacités de traitement limitées.Il est à noter que les travaux issus de ce projet doctoral ont été appliqués et valorisés concrètement par la société Argo à des fins commerciales, confirmant ainsi la pertinence et la viabilité des méthodologies et solutions développées, et attestant de leur contribution significative au domaine technologique et industriel de la réalité augmentée
This doctoral project focuses on issues related to the identification of images and documents in augmented reality applications using markers, particularly when using cameras. The research is set in a technological context where interaction through augmented reality is essential in several domains, including industry, which require reliable identification methodologies.In an initial phase, the project assesses various identification and image processing methodologies using a database specially designed to reflect the challenges of the industrial context. This research allows an in-depth analysis of existing methodologies, thus revealing their potentials and limitations in various application scenarios.Subsequently, the project proposes a document detection system aimed at enhancing existing solutions, optimized for environments such as web browsers. Then, an innovative image research methodology is introduced, relying on an analysis of the image in sub-parts to increase the accuracy of identification and avoid image confusions. This approach allows for more precise and adaptive identification, particularly with respect to variations in the layout of the target image.Finally, in the context of collaborative work with ARGO company, a real-time image tracking engine was developed, optimized for low-power devices and web environments. This ensures the deployment of augmented reality web applications and their operation on a wide range of devices, including those with limited processing capabilities.It is noteworthy that the works resulting from this doctoral project have been concretely applied and valorized by the Argo company for commercial purposes, thereby confirming the relevance and viability of the developed methodologies and solutions, and attesting to their significant contribution to the technological and industrial field of augmented reality
9

Xu, Kele. "Visualisation tridimensionnelle de la langue basée sur des séquences d'image échographique en mode-B". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066498.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une interface vocale silencieuse (SSI) est un système permettant une communication vocale à partir d’un signal non audible. Un tel système emploie des capteurs qui enregistrent des données non-acoustiques, pour la reconnaissance et la synthèse vocales. Cependant, l’extraction des caractéristiques articulatoires robustes à partir de ces signaux reste un défi. La langue est une composante majeure de l'appareil vocal, et l'articulateur le plus important dans la production de parole. Une simulation réaliste du mouvement de la langue en 3D peut fournir une représentation visuelle directe et efficace de la production de parole. Cette représentation pourrait à son tour être utilisée pour améliorer les performances de reconnaissance vocale d'un SSI, ou servir d'outil dans le cadre de recherches sur la production de parole et de l'étude des troubles de l'articulation. Dans cette thèse, nous explorons un nouveau cadre de visualisation en trois dimensions de la langue, qui combine l'imagerie échographique 2D et une technique de modélisation tridimensionnelle fondée sur la physique. Tout d'abord, différentes approches sont utilisées pour suivre le mouvement de la langue dans les séquences d'images échographiques, qui peuvent être regroupées en deux principaux types de méthodes : le suivi de la granularité et le suivi de contour. Les méthodes de suivi du chatoiement (speckle tracking) comprennent le recalage de déformations (deformation registration), le flux optique, et la méthode de transformation de caractéristiques visuelles invariante à l'échelle (Scale-invariant feature transform, ou SIFT). En outre, une méthode de suivi réinitialisation basée sur l'image est proposée afin d'améliorer la robustesse du suivi du chatoiement. En comparaison avec le suivi de chatoiement, l'extraction du contour de la surface de la langue à partir d'images échographiques présente des performances supérieures et une meilleure robustesse. Dans cette thèse, un nouvel algorithme de suivi de contour est présenté pour des séquences d'images échographiques de la langue. Cet algorithme permet de suivre le mouvement des contours de la langue sur de longues durées avec une bonne robustesse. Pour résoudre la difficulté causée par les segments manquants dus au bruit ou celle causée par la surface mi-sagittale de la langue qui est parallèle à la direction de propagation de l'onde ultrasonore, nous proposons d’utiliser des contours actifs avec une contrainte de similitude de contour, qui fournissent des informations a priori sur la forme de la langue. Des expériences sur des données synthétiques et sur des images réelles acquises sur différents sujets à la cadence de 60 images par seconde montrent que la méthode proposée donne un bon contour de suivi pour ultrasons des séquences d'images, même sur des durées de quelques minutes. Cette technique peut par conséquent être utile dans des applications telles que la reconnaissance vocale où de très longues séquences doivent être analysées dans leur intégralité…
A silent speech interface (SSI) is a system to enable speech communication with non-audible signal, that employs sensors to capture non-acoustic features for speech recognition and synthesis. Extracting robust articulatory features from such signals, however, remains a challenge. As the tongue is a major component of the vocal tract, and the most important articulator during speech production, a realistic simulation of tongue motion in 3D can provide a direct, effective visual representation of speech production. This representation could in turn be used to improve the performance of speech recognition of an SSI, or serve as a tool for speech production research and the study of articulation disorders. In this thesis, we explore a novel 3D tongue visualization framework, which combines the 2D ultrasound imaging and 3D physics-based modeling technique. Firstly, different approaches are employed to follow the motion of the tongue in the ultrasound image sequences, which can be divided into two main types of methods: speckle tracking and contour tracking. The methods to track speckles include deformation registration, optical-flow, and local invariant features-based method. Moreover, an image-based tracking re-initialization method is proposed to improve the robustness of speckle tracking. Compared to speckle tracking, the extraction of the contour of the tongue surface from ultrasound images exhibits superior performance and robustness. In this thesis, a novel contour-tracking algorithm is presented for ultrasound tongue image sequences, which can follow the motion of tongue contours over long durations with good robustness. To cope with missing segments caused by noise, or by the tongue midsagittal surface being parallel to the direction of ultrasound wave propagation, active contours with a contour-similarity constraint are introduced, which can be used to provide “prior” shape information. Experiments on synthetic data and on real 60 frame per second data from different subjects demonstrate that the proposed method gives good contour tracking for ultrasound image sequences even over durations of minutes, which can be useful in applications such as speech recognition where very long sequences must be analyzed in their entirety…
10

El-Chaar, Wafi. "Segmentation et suivi d'objets couleur dans une séquence vidéo à l'aide de réseaux de neurones auto-organisés". Littoral, 2007. http://www.theses.fr/2007DUNK0204.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette recherche, on s’intéresse à réaliser une segmentation automatique de couleurs d’une image à l’aide de réseaux de neurones auto-organisés. On utilise ensuite cette segmentation pour alimenter un algorithme de suivi d’objets. L’objectif ultime est de construire une « machine intelligente de vision » capable de voir et comprendre ce qu’elle voit. Une multitude d’applications peuvent bénéficier d’une telle recherche, notamment les domaines du transport intelligent, du suivi de cibles ou de personnes, de la reconnaissance de comportement, etc. On a développé un algorithme de segmentation automatique des couleurs des objets (objets couleurs) qui existent dans une image statique. Il débute par un ensemble uniforme de couleurs représentatives puis procède à le réduire en éliminant ceux qui n’ont pas de contribution dans l’image étudiée. Cela ne garde que les couleurs utiles à la segmentation. Ensuite, on définit et on entraîne un réseau auto-organisé de Kohonen (SOM) pour représenter la distribution de ces couleurs utiles. Une analyse de l’histogramme « des parts du marché » permet ensuite la détection des couleurs les plus dominantes de l’image. A la fin, on applique la règle économique 80/20 de Pareto et une analyse ABC pour filtrer les résultats de segmentation et ne garder que les plus utiles 95% d’objets. Cela réduit considérablement le bruit de segmentation et améliore la qualité des résultats. On a appliqué cette segmentation dans le domaine suive d’objets en supposant que ces couleurs dominantes sont conservées le long d’une séquence vidéo et qu’on est intéressé par le suivi des objets couleurs. On a défini les règles pour la validation des résultats d’un suivi qui se résument par la commutativité de la relation de correspondance entre les objets dans les sens normal et inverse de la séquence vidéo. L’algorithme de suivi qu’on a développé appartient à la classe des algorithmes de suivi par correspondance des caractéristiques visuelles. On en a choisi 5 : la couleur, le centre de gravité, la surface, l’orientation et le rectangle encadrant. On les a utilisé pour définir une fonction de correspondance entre les objets et détecter leurs 3 états : apparition, vie et disparition
In this research, we are interested in automatic segmentation of color objects using artificial neural networks. We apply this segmentation to track moving objects in a video sequence. Our ultimate goal is to build an “intelligent Visual Machine” that is able to “ see” and “understand” what it sees. A wide range of applications could be benefit from such a research : intelligent transportation systems, objects or persons tracking, objects or behavior recognition and many other engineering or biomedical applications. We developed an algorithm that starts with a pre-defined set of neurons uniformly representing the color space. The algorithm then reduces this set by eliminating the ones which had little or no contribution to the colors of the image. A Kohonen’s SOM neural network learns then the distribution of the remaining (useful) colors in the color space and represents them in an optimized way. Next, we use a histogram of market-shares to detect and keep only the most dominant useful colors found in the image. We use those colors to identify and separate color segments. We used the economical ABC-Analysis and Pareto’s 80/20 rule to filter the available segments and concentrate on the most important 95% of them. This represent a huge reduction in the number of objects treated and a much better quality of segmentation. We applied this segmentation algorithm to feed an object tracking algorithm that contained some new rules governing tracking algorithms and validating their results. The most important one was that tracking algorithms should perform the same way if applied in forward or backward playing mode (objects should match both ways). We developed a tracking algorithm based on visual features matching technique and calculated the relative difference of 5 basic visual features to do the match. Those features were color, centroid, area, boundingbox, and orientation and were compared between different objects from consecutive frames. We were able to detect all 3 states of an object : appearance, existence, and disappearance
11

Orczyk, Clément. "Modélisation du cancer de la prostate par l'imagerie : détection, stratification, planning thérapeutique et suivi en 3D d'une thérapie focale basés sur le recalage-fusion d'image en multi modalité". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC405/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dénommée multiparamétrique par adjonction de séquences fonctionnelle aux conventionnelles, L’IRM de prostate a montré ses performances pour la détection du cancer de prostate par un score radiologique visuel, subjectif. D’autres applications sont en cours d’investigations comme la stratification, le planning thérapeutique ou encore le suivi oncologique.La première partie s’attache à décrire, élaborer et appliquer une méthodologie de recalage non rigide en 3D entre l’histologie du spécimen de prostatectomie totale et les différentes séquences de l’IRMmp. Après avoir capturé une déformation et un changement de volume de la prostate entre les états in vivo et ex vivo par IRM, la méthode de recalage multimodalité appliquée à une population de prostatectomie totale précédée d’une IRM démontre une sous-estimation du volume de cancer par l’IRM, sujette à une stratification. Les implications se trouvent dans la détection, la stratification et le planning thérapeutique. La deuxième partie propose une analyse de texture des différentes séquences et cartographies quantitatives en diffusion et perfusion pour la détection et la stratification du cancer. Cette approche multiparamétrique de « Score d’Entropie » est testée dans une population pilote au moment des biopsies et présente des performances diagnostique pour sélectionner les lésions à biopsier. Ce score d’entropie participe de la stratification du cancer en corrélant positivement avec le score de Gleason et la longueur de cancer biopsique.La troisième partie explore le rôle de l’IRM dans le suivi d’une thérapie émergente, dite focale, du cancer. Il s’agit d’un travail de recalage non-rigide longitudinal sur une cohorte de patients traités par thérapie focale en vue de compenser les déformation focalement induites. Il apparaît que ce type de recalage peut permettre un suivi objectif des résultats d’ablation et potentiellement élaborer une cible biopsique et radiologique dans le suivi oncologique
Conventional prostate MRI, enhanced by diffusion and perfusion sequences, and then named multiparametric, showed high performances for detection of prostate cancer using visual scoring. Indications in stratification, prognosis, treatment planning and follow up are currently under investigations.First part of this work attached itself to describe, elaborate and use a non-rigid image fusion method in 3D between gold standard histology of radical prostatectomy and MRI. Investigations captured the significant differences in shape and volume of in vivo and ex vivo prostate using MRI. The developed multimodality fusion method was applied to a cohort of patients who underwent MRI prior surgery. Results showed a stratified underestimation of cancer volume by MRI. Clinical output resides in detection, stratification and surgical planning.The second part proposed some texture analysis of sequences and quantitative maps. As a multiparametric approach, the Entropy Score is applied in a pilot cohort at time of biopsy and showed some potential usefulness to select MRI targets without compromising detection of significant cancer. By positively correlating with the Gleason Score and the maximal core length of cancer, Entropy Score participates of stratification of cancer.The third part explored application of image registration in the longitudinal follow up of an emergent therapy, said focal (FT). As a conservative approach, FT induces very local deformation of the gland which appears to be appropriately modelled by non-rigid registration, then opening possibilities to guide further control biopsy and radiologic assessment
12

Dupont, Romain. "Suivi des parties cachées dans une séquence vidéo et autres problèmes soulevés par la reconstruction tridimensionelle d'un environnement urbain". Phd thesis, Ecole des Ponts ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002357.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse se place dans le cadre de la reconstruction de l'environnement urbain via l'utilisation de caméras et d'un télémètre laser. En premier lieu, nous nous intéressons à la segmentation spatiotemporelle des séquences vidéos en vue de traiter les données photographiques fournies par les caméras. Nous présentons une nouvelle technique de segmentation en couches qui extrait les régions de même mouvement paramétrique d'une séquence vidéo. Elle s'appuie sur les contraintes temporelles définies et optimisées sur toutes les images simultanément et non successivement, sans a priori sur la scène. De surcroît, nous considérons dorénavant les parties cachées des couches (parties qui disparaissent et qui réapparaissent). Notre algorithme les extrait et les suit explicitement tout au long de la séquence en s'appuyant sur l'utilisation des graph cuts et de l'alpha-expansion. Les résultats obtenus sont très satisfaisants: la segmentation est cohérente temporellement et spatialement et robuste aux difficultés inhérentes à l'analyse du mouvement (ambiguités, présence de surfaces non lambertiennes, etc.). En second lieu, nous nous intéressons à l'utilisation des données hétérogènes, ici télémétriques et photographiques, dans un même référentiel afin d'obtenir un modèle tridimensionnel texturé de l'environnement urbain. Le télémètre laser 2D, embarqué sur un véhicule en déplacement, fournit un nuage de points de la structure extérieure de la scène urbaine observée. Les photographies ont, quand à elles, deux finalités: 1) texturer le nuage de points et 2) en faciliter sa segmentation via l'extraction des couches afin d'obtenir un modèle de qualité. Ce dernier doit notamment être correctement triangulé et exempt d'objets indésirables tels que les piétons, voitures, etc. Nous proposons ainsi une nouvelle technique de calibration des capteurs afin de projeter avec précision les données photographiques sur le nuage de points.
13

Papadakis, Nicolas. "Assimilation de données images : application au suivi de courbes et de champs de vecteurs". Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00655898.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite de l'utilisation de méthodes séquentielles et variationnelles de suivi pour des problèmes de suivi dans des séquences d'images. Ces méthodes cherchent à estimer l'état d'un système à partir d'un modèle d'évolution dynamique et d'un ensemble d'observations bruitées et généralement incomplètes de l'état. Ces techniques sont appliquées à divers problèmes de vision par ordinateur: le suivi de courbe, l'estimation de champs de mouvement fluide et le suivi couplé de courbe et de champs de vecteurs. Nous montrons comment l'assimilation de données permet de gérer des occultations totales pendant le suivi d'objets sur une séquence d'images. Nous nous intéressons enfin à l'estimation de mouvement de couches atmosphériques à partir d'images satellitaires, puis étudions l'estimation de coefficients associés à des systèmes dynamiques réduits associés à la visualisation d'écoulements expérimentaux.
14

Bismuth, Vincent. "Image processing algorithms for the visualization of interventional devices in X-ray fluoroscopy". Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1062/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalité dans le monde. Lors d'une procédure de pose de stent, le médecin insère des outils chirurgicaux dans le réseau vasculaire du patient. La progression de ces outils a l’intérieur du corps est suivie en temps réel sous uroscopie par rayons X. Trois outils, en particulier, jouent un rôle crucial dans la procédure : le guide, le ballon d'angioplastie et le stent. Le guide apparaît dans les images sous la forme d'une structure curviligne ne. Le ballon, monte sur le guide, est équipé de deux marqueurs radio-opaques à ses extrémités. Le stent est un maillage métallique qui se projette en une forme complexe dans les images uroscopiques. Le stent, dont le bon déploiement est essentiel au succès du geste médical, est souvent très difficilement visible dans les images. Les travaux présentés dans cette thèse poursuivent un double objectif. Il s'agit d'une part, de concevoir, d’étudier et de valider des techniques de traitement d'image visant à améliorer la visualisation des stents. D'autre part, nous étudions la traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous présentons des algorithmes de traitement d'image dédiés a la visualisation 2D et3D des stents. Nous sommes amenés, dans ce but, à détecter, suivre et recaler, de manière complètement automatique, les outils nécessaires a la pose de stent que sont le guide et le ballon. Le stent étant a peine visible dans les images, nous ne cherchons pas à le localiser directement à l'aide de techniques de traitement d'images. La position et le mouvement du stent sont déterminés par nos algorithmes […]. Nous avons évalué la performance des ces outils pour la visualisation des stents en 2D, sur une large base de près de 200 cas cliniques. Il en ressort que notre méthode surpasse les méthodes utilisées jusqu'ici sur le plan de la qualité image. La validation exhaustive que nous avons menée, confirme que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en résulte est désormais installé sur un grand nombre de sites cliniques, ou il est régulièrement utilisé. La méthode de visualisation 3D des stents que nous proposons utilise les marqueurs pour effectuer une reconstruction tomographique compensée en mouvement. Nous exposons des résultats préliminaires sur une base de 22 cas cliniques. Il semble que notre méthode surpasse les méthodes précédemment employées aussi bien du point de vue de la qualité d’image que de l'automatisation. Les méthodes de visualisation des stents que nous proposons s’appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d’unir dans un même cadre différents concepts pré-existants. De plus, il permet de contrôler la régularité et la longueur des structures à traiter avec une paramétrisation simple et intuitive. Avant de tirer pleinement parti des performances du PPI nous proposons un schéma algorithmique efficace pour le calculer. Nous illustrons ces utilisation pour la segmentation automatique de guide où il surpasse les techniques existantes
Stent implantation is the most common treatment of coronary heart disease, one of the major causes of death worldwide. During a stenting procedure, the clinician inserts interventional devices inside the patient's vasculature. The navigation of the devices inside the patient's anatomy is monitored in real-time, under X-ray fluoroscopy. Three specific interventional devices play a key role in this procedure: the guide-wire, the angioplasty balloon and the stent. The guide-wire appears in the images as a thin curvilinear structure. The angioplasty balloon, that has two characteristic markerballs at its extremities, is mounted on the guide-wire. The stent is a 3D metallic mesh, whose appearance is complex in the fluoroscopic images. Stents are barely visible, but the proper assessment of their deployment is key to the procedure. The objective of the work presented in this thesis is twofold. On the first hand, we aim at designing, studying and validating image processing techniques that improve the visualization of stents. On the second hand, we study the processing of curvilinear structures (like guide-wires) for which we propose a new image processing technique. We present algorithms dedicated to the 2D and 3D visualization of stents. Since the stent is hardly visible, we do not intend to directly locate it by image processing means in the images. The position and motion of the stent are inferred from the location of two landmarks: the angioplasty balloon and of the guide-wire, which have characteristic shapes. To this aim, we perform automated detection, tracking and registration of these landmarks. The cornerstone of our 2D stent visualization enhancement technique is the use of the landmarks to perform motion compensated noise reduction. We evaluated the performance of this technique for 2D stent visualization over a large database of clinical data (nearly 200 cases). The results demonstrate that our method outperforms previous state of the art techniques in terms of image quality. A comprehensive validation confirmed that we reached the level of performance required for the commercial introduction of our algorithm. It is currently deployed in a large number of clinical sites worldwide. The 3D stent visualization that we propose, uses the landmarks to achieve motion compensated tomographic reconstruction. We show preliminary results over 22 clinical cases. Our method seems to outperform previous state of the art techniques both in terms of automation and image quality. The previous stent visualization methods involve the segmentation of the part of the guide-wire extending through the stent. We propose a generic tool to process such curvilinear structures that we call the Polygonal Path Image (PPI). The PPI relies on the concept of locally optimal paths. One of its main advantages is that it unifies the concepts of several previous state of the art techniques in a single formalism. Moreover the PPI enables to control the smoothness and the length of the structures to segment. Its parametrization is simple and intuitive. In order to fully benefit from the PPI, we propose an efficient scheme to compute it. We demonstrate its applicability for the task of automated guide-wire segmentation, for which it outperforms previous state of the art techniques
15

Braisaz-Latille, Paul. "Suivi et prédiction de l'initiation de l'endommagement et de la durée de vie en fatigue dans un matériau composite tissé présentant un défaut artificiel de fabrication par le biais d'une approche hybride". Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6612.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet de maîtrise met en avant une étude du suivi et de la prédiction de l’endommagement dans des structures composites à fibres de carbone tissées soumises à des efforts de fatigue tension-tension par le biais de deux méthodes de détection non-destructives que sont l’émission acoustique (AE) et la corrélation d’image (DIC). L’émission acoustique se présente comme une méthode unique permettant le suivi en continu des phénomènes microscopiques d’endommagement apparaissant dans le matériau, alors que la corrélation d’image permet un accès en temps réel au champ de déformation et par conséquent aux effets macroscopiques de cet endommagement sur les propriétés du matériau. Le croisement des résultats obtenus à partir de ces deux méthodes améliore la fiabilité et la validité des hypothèses réalisées. L’approche utilisée permet d’établir des courbes de durée de vie du matériau prenant en compte la propagation du défaut artificiel intégré et propose un modèle d’endommagement dans la lignée des modèles phénoménologiques existants. Dans un premier temps, le contexte de l’étude est introduit ainsi que les objectifs détaillés de ce projet. L’importance d’établir des modèles de prédiction de durée de vie en fatigue pour les structures composites est mise en avant. La deuxième partie de ce rapport a pour but de réaliser un état de l’art exhaustif sur les différents domaines touchés par ce projet de recherche. On y retrouve une analyse des mécanismes d’endommagement se développant dans les matériaux composites unidirectionnels et tissés ainsi qu’une présentation des différentes méthodes de modélisation de l’endommagement ayant été développées. Les approches par éléments finis permettant de modéliser l’initiation et la propagation de fissures macroscopiques dans les composites sont ensuite présentées, avant de finalement proposer une revue du domaine de monitorage de l’état de santé des structures, et plus particulièrement l’émission acoustique et la corrélation d’image. Ensuite, le récapitulatif des travaux de recherche réalisés est illustré sous forme d’article dans la troisième partie. Des essais statiques de traction ont d’abord permis d’établir les gammes de charge à utiliser pour les essais de fatigue. Ces mêmes essais de fatigue tension-tension ont été menés à différents chargements à l’aide d’un suivi en continu par émission acoustique et corrélation d’image afin de mettre en évidence l’accumulation des mécanismes d’endommagement. Des courbes de durée de vie représentant l’apparition de ces différents mécanismes d’endommagement ainsi que la rupture totale ont pu être proposées. L’observation du paramètre mécanique de rigidité a finalement permis d’établir une approche de modélisation de l’endommagement par le biais d’une variable d’endommagement dans le lignée des modèles phénoménologiques existants.
16

Mathon, Julien. "Développement de nouveaux outils algorithmiques et technologiques pour l'étude du mouvement des chromosomes dans la levure S. Cerevisiae". Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00949331.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement des techniques d'ingénierie génétique et celles d'imagerie en microscopie de fluorescence ont ouvert la voie à l'étude du mouvement et de la structure des chromosome dans les cellules vivantes. Depuis quelques années, l'avènement de ces outils a fait naître une biophysique du noyau, dont l'objectif est de comprendre avec des modèles physiques comment s'organise le génome dans une cellule et comment il se réorganise sous l'effet de stimuli biologiques ou chimiques. L'objectif de mon travail de thèse a consisté à développer des outils permettant de mesurer précisément les déplacements des chromosomes dans les cellules vivantes, d'automatiser le processus de traitement des données et de développer des modèles quantitatifs d'analyse des données expérimentales. Dans ce travail de thèse pluridisciplinaire, nous avons à la fois optimisé une chaîne d'acquisition de microscopie de fluorescence afin de maximiser la qualité de films de levures vivantes, réalisé un algorithme de suivi de particules et de reconnaissance de forme dédiés à la levure, ainsi que des outils de traitement automatisés des trajectoires pour systématiser le processus de traitement des données. Ces méthodes ont permis de construire des modèles originaux de structure et de dynamique des chromosomes in vivo chez la levure saccharomyces cerevisiae.
17

Kone, Tiémoman. "Recalage automatique d'images angiographiques rétiniennes par analyse numérique d'images : application au suivi de séquences d'images". Paris 12, 1993. http://www.theses.fr/1993PA120046.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'angiographie retinienne en fluorescence est un examen clinique ophtalmologique. Cet examen est fondamental pour le diagnostic des pathologies retiniennes. Il permet d'avoir une serie d'images retiniennes dont l'analyse necessite frequemment un recalage d'images. Jusqu'ici, la methode manuelle de recalage, par utilisation d'une feuille calque, et subjective, fastidieuse et restreinte aux images de meme agrandissement. Nous proposons une methode geometrique de recalage automatique basee sur les techniques d'analyse numerique d'images. Cette methode consiste a detecter, dans un premier temps, les points de bifurcation de la structure vasculaire des images retiniennes a recaler. Les points de bifurcation sont ensuite apparies par la mise en correspondance de polygones semblables dont ils sont les sommets. Les couples de points de bifurcation apparies servent a definir la transformation de recalage entre les images. La methode de recalage automatique facilite l'analyse des images angiographiques retiniennes, elle reste applicable lorsqu'il existe entre les images, des deformations peripheriques ou une variation du facteur d'echelle
18

Dahdouh, Sonia. "Filtrage, segmentation et suivi d'images échographiques : applications cliniques". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00647326.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d'échec de celle-ci, l'intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l'intervention.L'imagerie échographique est largement plébiscitée en raison de son faible coût, de l'innocuité del'examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl'opérateur.L'objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu'une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd'améliorer les conditions d'exécution d'interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del'image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d'ondelettes aux différentes échelles à partir d'un algorithme de typesplit and merge appliqué avant reconstruction de l'image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l'image suivante de la séquence. L'image est transformée pourne plus être qu'un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l'image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l'image courante sur l'image des vignettes segmentée. L'utilisation d'informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l'état de l'art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d'exécution sans optimisation, inférieur à la minute pour des images 512*512.
19

MONTAGNE, ERIC. "Suivi d'amers visuels dans une sequence d'images routieres". Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF21796.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de recherche que j'ai menes durant la preparation de ma these de doctorat ont trait au domaine du traitement d'images applique a l'automobile. L'objectif est d'apporter une assistance au conducteur pour ameliorer la securite en circulation routiere a l'aide d'un copilote electronique. Il s'agit de fournir au conducteur des elements quantitatifs sur la position relative de son vehicule par rapport a un autre percu dans la scene. Afin de s'affranchir des problemes de detection au sein des images video, les vehicules qui representent des dangers potentiels sont equipes d'un dispositif lumineux constitue de trois amers visuels. Ces derniers definissent un modele du vehicule a suivre. L'utilisation de trois feux dont la disposition est connue sur le vehicule permet l'usage de methodes directes de localisation. La localisation - fournissant l'attitude du vehicule equipe d'amers - est faite a chaque nouvelle image pour estimer les nouveaux parametres. Une methode particuliere et originale a ete developpee et mise en uvre afin de suivre un groupe de points. Le suivi est realise sur l'ensemble des feux a retrouver et non de facon individuelle sur chacun d'eux respectant ainsi un critere de rigidite du modele. Des fenetres d'interet sont centrees autour de chaque amer a retrouver et un coefficient de disparite est calcule pour chaque combinaison possible du nombre d'amers. Les cas d'occultation partielle sont resolus par substitution du feu manquant en fonction du coefficient de disparite de la combinaison retenue. Une implantation temps-reel sur une machine specifique a ete realisee montrant la faisabilite d'un systeme de suivi utilisant une seule camera avec l'aide d'amers visuels.
20

Ganoun, Ali. "Suivi de structure déformable dans une séquence d'images". Orléans, 2007. http://www.theses.fr/2007ORLE2003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le suivi d’objet dans les séquences d’images est un axe de recherche assez développé dans le domaine de la vision artificielle. Il peut être vu comme un processus composé de deux phases : la phase d'initialisation ou de segmentation dans laquelle nous définissons dans l'image l'objet à suivre, et la phase de suivi pendant laquelle nous recherchons l'objet dans les images successives. Quatre approches de suivi d’objet ont été étudiées et implémentées, puis optimisées par rapport à leurs versions trouvées classiquement dans la littérature. La première approche concerne la méthode des courbes de niveau, abordée autant comme approche de segmentation que de suivi. La deuxième approche permet de se placer dans un cadre bayésien et de formuler le suivi de manière probabiliste grâce à un filtrage particulaire. Dans la troisième approche, l'algorithme de CamShift est appliqué sur l’image avec un modèle de l’objet à suivre construit sur deux canaux de couleur au lieu des trois plus généralement utilisés. Enfin une quatrième approche combinant une mise en correspondance de points d’intérêt et l'algorithme de CamShift a été développée pour un fonctionnement dans des séquences d’images en niveaux de gris. Une évaluation de chaque approche sur quelques séquences d’images est menée afin d’explorer l'évolution d'un ensemble de mesures de performance avec des variations de paramètres. Un bilan comparatif a ensuite été réalisé afin de définir les avantages, inconvénients et conditions d’utilisation de chaque approche. Le cadre applicatif de ces travaux est le suivi d’un unique objet sans connaissance a priori ni phase d’apprentissage dans une séquence d’images en niveaux de gris en vue d’une implantation avec fonctionnement en temps réel sur un système embarqué.
21

PINEAU, PATRICK. "Detection et suivi d'objets par analyse de sequences d'images". Rennes 1, 1991. http://www.theses.fr/1991REN10111.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce memoire, nous avons developpe une nouvelle approche permettant la detection et le suivi de regions en mouvement dans une sequence d'images. Elle est basee sur l'analyse des variations spatio-temporelles de la distribution des intensites. Le principal objectif est de construire le plus fidelement possible les projections, ou masques complets, des objets, ainsi que le masque de leur ombre portee, puis en suivre l'evolution temporelle. L'approche envisagee traite des sequences d'images de scenes proches acquises avec une camera fixe. Le fonctionnement general de la methode se decompose en quatre principales etapes: a) construction des masques des objets et des masques de leur ombre, par comparaison de l'image courante et de l'image du fond. Cette comparaison, basee sur la luminance et les contours, conduit a un etiquetage double. Un processus de relaxation, avec modelisation markovienne du champ des etiquettes, permet d'optimiser la detection. B) separation des objets grace a la prise en compte de leur mouvement. Cette technique est egalement basee sur une relaxation avec modelisation markovienne. C) prediction temporelle des masques des objets et de leur mouvement afin d'augmenter la robustesse des precedentes etapes. D) enfin, un processus de suivi temporel des masques des objets est mis en uvre afin d'obtenir la trajectoire de chaque objet
22

Arnaud, Elise. "Methodes de filtrage pour du suivi dans des sequences d'images - Application au suivi de points caracteristiques". Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00307896.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette etude traite de l'utilisation de methodes de filtrage pour du suivi dans des sequences d'images. Ces algorithmes reposent sur une representation du systeme dynamique par une chaine de Markov cachee, decrite par une loi dynamique et une vraisemblance des donnees. Pour construire une methode generale, une loi dynamique estimee sur les images est consideree. Ce choix met en evidence les limitations du modele simple de chaine de Markov cachee, qui ne decrit pas la dependance des elements du systeme aux images.
Nous proposons d'abord une modelisation originale du probleme. Celle-ci rend les images explicites et permet de construire des algorithmes sans information a priori. Les filtres associes a cette nouvelle representation sont derives sur la base des filtres classiques, en considerant un conditionnement par rapport a la sequence. Il est egalement presente comment ce nouveau schema permet de considerer des modeles simples, pour lesquels la fonction d'importance optimale est disponible.
Ensuite, nous nous interessons a la validation pratique de la modelisation proposee sur une application de suivi de points caracteristiques. Les systemes mis en oeuvre sont entierement estimes sur la sequence. Ils associent des mesures de similarite a une dynamique definie a partir d'un mouvement instantane estime par une methode differentielle robuste. Afin de controler l'importance des differents elements du systeme, les matrices de covariance de bruit des modeles sont estimees. Trois algorithmes de suivi de points sont ainsi construits et valides sur de nombreuses sequences reelles. Enfin, cette approche est etendue au suivi de motifs plans textures. Le modele considere introduit une information geometrique par homographie et amene a un algorithme robuste aux occultations totales.
23

Arnaud, Elise. "Méthodes de filtrage pour du suivi dans des équences d'images. Application au suivi de points caractéristiques". Rennes 1, 2004. http://www.theses.fr/2004REN10101.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude traite de l'utilisation de méthodes de filtrage pour du suivi dans des séquences d'images. Ces algorithmes reposent sur une représentation du système par une chaîne de Markov cachée, décrite par une dynamique et une vraisemblance. Pour construire une méthode générale, une loi dynamique estimée sur les images est considérée. Ce choix met en évidence les limitations du modèle simple de chaîne de Markov cachée, qui ne décrit pas la dépendance des éléments du système aux images. Nous proposons d'abord une modélisation originale du problème. Celle-ci rend les images explicites et permet de construire des algorithmes sans information a priori. Les filtres associés à cette nouvelle représentation sont dérivés. Ensuite, nous nous intéressons à la validation de cette modélisation. Trois méthodes de suivi de points sont construits. Ils associent des mesures de corrélation à une dynamique définie à partir d'un mouvement estimé. Enfin, cette approche est étendue au suivi de plans.
24

MOULET, DOMINIQUE. "Extraction et suivi de contours dans les sequences d'images animees". Nantes, 1990. http://www.theses.fr/1990NANT2016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce memoire de these presente une methode de segmentation et de suivi temporel de sequences d'images. La methode que nous proposons permet d'obtenir d'une part l'ensemble des segmentations spatiales associees a chacune des images de la sequence et, d'autre part, un suivi temporel de points caracteristiques fournis par la segmentation. Le procede de suivi temporel de la segmentation spatiale peut se decomposer en trois grandes phases: la phase de prediction, la phase de mise en correspondance et la phase d'affinage. La phase de prediction permet le calcul d'une prediction de la position de chacun des points caracteristiques dans l'image suivante, position que l'on determine de facon precise lors de la phase de mise en correspondance. Cette mise en correspondance est effectuee de facon hierarchique dans une premiere etape par une procedure deterministe puis, dans une seconde etape, par une methode de relaxation probabiliste. Enfin, lors de la derniere phase qui reste a mettre au point, la segmentation obtenue est ajustee afin de rester en parfaite coherence avec les segmentations precedentes
25

Delamarre, Quentin. "Suivi du mouvement d'objets articulés dans des séquences d'images vidéo". Nice, 2003. http://www.theses.fr/2003NICE4067.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons une méthode pour faire "comprendre" automatiquement à un ordinateur les mouvements d'un être humain filmé par des caméras vidéo, sachant qu'aucun marqueur n'a été placé sur celui-ci. Pour cela, nous avons choisi de nous intéresser à une première étape: l'estimation des variations des paramètres du mouvement d'une personne dans le temps. Nous abordons aussi la deuxième étape qui consiste à interpréter ces variations pour leur donner un sens. Des informations sont extraites des images vidéo et sont comparées à un modèle géométrique de l'objet suivi. Ces informations sont soit une segmentation de la silhouette de l'objet dans le cas où les caméras sont éloignées les unes des autres, soit une reconstruction tridimensionnelle de cet objet dans le cas où les caméras sont rapprochées. Nous expliquons pourquoi cette distinction est faite. Dans chacun des cas nous supposons connue la géométrie de l'objet en construisant un modèle 3D constitué de parties rigides simples articulées entre elles. La minimisation de l'erreur d'estimation des paramètres de position est effectuée en créant des forces et en résolvant les équations de la dynamique pour le modèle 3D articulé. Ces forces sont créées à partir des informations trouvées dans les images. Les différentes étapes de l'algorithme sont abordées: la calibration des caméras, la structure du modèle 3D, l'extraction d'informations des images, l'application de forces au modèle 3D, la dynamique de ce modèle et l'estimation et la prédiction de son mouvement dans la scène grâce à un filtre de Kalman. Enfin nous montrons des résultats encourageants et proposons des idées pour généraliser l'algorithme
We introduce you to a method designed to provide the computer, the ability to automatically understand the motions of a markerless filmed human in a multi-cameras environment. In a first step, we decide to estimate the time extended motions variations. Secondly, these variations are interpreted in order to give them significance. After being retrieved from the video pictures, information are compared to a tracked object geometric model. These information could be a segmentation of the object silhouette in case of far distant cameras from each other, or a three-dimensional reconstruction in case of near distant cameras from each other. We ll explain why this distinction is made. In each case, we assume that the object geometry is known thanks to the build of a 3D model made of simple articulated rigid parts. The position parameters error correction is done by creating forces and by resolving the equations of the 3D articulated model dynamic. Information found in the pictures allow us to create such forces. Different steps of the algorithm are introduced: how to calibrate the cameras, the 3D model structure, the information retrieve process, how to apply forces to the model, its dynamic, the estimation and anticipation of the motion in the scene thanks to a Kalman filter. Finally, we expose encouraging results and try to give ideas in order to generalize the algorithm
26

Inglebert, Claude. "Suivi et reconstruction de courbes a partir d'une séquence d'images : application au suivi de la signalisation routière". Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL016N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail présenté dans ce mémoire est une contribution a la conduite assistée de véhicules sur routes à partir d'images prises par une camera embarquée. Les problèmes abordés sont relatifs au suivi de lignes blanches sur route: détection, suivi, reconstruction de la route et localisation du véhicule. Ce mémoire décrit les deux méthodes que nous avons élaborées pour résoudre ces problèmes. La première est une méthode simple et rapide qui a permis d'effectuer le suivie en temps réel jusqu'a des vitesses de 60 km/h en utilisant un modèle de la route et un modèle du mouvement de la camera. La seconde méthode utilise les propriétés différentielles des surfaces spatio-temporelles engendrées par des courbes en mouvement. Dans un premier temps, nous montrons toutes les égalités liant les caractéristiques différentielles de la surface spatio-temporelle, les grandeurs 3D de la courbe et les paramètres du mouvement. Puis, grâce a la prise en compte des connaissances à priori sur les conditions expérimentales, l'étude du flot optique des lignes observées permet la détermination du mouvement de la camera et une meilleure reconstruction des lignes blanches. Un des mérites de cette approche est de moins contraindre la forme des lignes que dans la première méthode. Enfin, nous proposons une expérimentation sur des données synthétiques de la détermination du mouvement a partir de l'étude des surfaces spatio-temporelles de courbes quelconques
27

Allezard, Nicolas. "Reconnaissance,localisation et suivi d'objets texturés par vision monoculaire". Clermont Ferrand 2, 2001. http://www.theses.fr/2001CLF21314.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous traiterons dans ce mémoire de thèse du problème de la reconnaissance d'objets texturés par vision monoculaire ainsi que de leurs localisations et de leurs suivis dans le repère caméra. Nous avons développé une approche mixte, basée sur l'appariement de primitives visuelles entre l'image à analyser et les images d'une base d'apprentissage, mais qui tire partie de la connaissance du modèle CAO texturé de l'objet pour valider le résultat du processus de reconnaissance et localiser l'objet. Dans un contexte d'objets texturés, les primitives les plus pertinentes semblent être les points d'intérêt. Ces derniers, très présents dans le cas d'images texturées, sont situés dans des zones riches en information de luminance. Ces primitives sont caractérisées localement par un vecteur directement basé sur le signal de luminance. Il est invariant aux rotations et translations 2D, aux changements affines de la luminosité et peut être implémenté de façon multi-d'échelles. Préalablement à la reconnaissance, une phase d'apprentissage est réalisée. Elle consiste en la génération d'images synthétiques de l'objet puis en la création d'une base de données rassemblant les primitives extraites ainsi que leurs vecteurs caractéristiques. La base est ensuite organisée de façon à être parcourue rapidement. L'utilisation d'images synthétiques permet de remonter aux coordonnées 3D des points extraits lors de l'apprentissage et donc d'obtenir des appariements 3D/2D entre l'image et le modèle qui permettent de calculer la pose de l'objet. Ce calcul est effectué de façon robuste et introduit une contrainte géométrique forte sur les mises en correspondance. Dans le cas d'une séquence d'image, le processus peut être considérablement accéléré. Une fois la position de l'objet connue dans la première image, l'extraction des points est limitée dans l'image et le parcours de la base est initialisé par la pose 3D précédente de l'objet
This thesis deals with textured objects recognition by monocular vision as well as their localization and tracking in the camera coordinates system. We have developed a mixed approach, based on the matching of visual primitives between the image to analyse and the images of a training base, but which uses the knowledge of the 3D object model to validate the result of the recognition process and to locate the object. In a context of textured objects the most relevant features seems to be keypoints. These points are located in image zones having a high information content. We propose a local description of such features directly based on the luminance signal. It is insensitive to image rotations ans translations and we also present a multi-scale implementation of these description in order to recognize objects in spite of important scale changes. Before the recognition, a training stage is carried out. It consists in the genration of synthetic images of the object then in the creation of a data base gathering the extracted primitives and their characterization vector. After that the data are organize in order to scan the base as fast as possible. The use of synthetics images allows them to compute the 3D coordinates of the keypoints extracted at the training stage. So, after the matching done, we obtain a set of 2D/3D pairs between the image and the object model. Thus, we compute the object position with a robust method which introduce a strong geometrical constraint on the 2D/3D pairs. In the case of a images sequence, once the object position known in the first image, the process can be considerably accelerated : the features extraction is limited to a part of the image and the data base scanning is initialized by the preceding 3D position of the object
28

Duculty, Florent. "Suivi automatique d'objets 3D basé sur l'apparence dans des séquences d'images". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2003. http://tel.archives-ouvertes.fr/tel-00610720.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse s'inscrit dans le domaine de la vision artificielle. Plus précisément, nous nous sommes intéressés au suivi temps réel vidéo d'objets 3D mobiles dans des séquences d'images. A l'orgine de ces travaux, se trouve un algorithme, développé au LASMEA, dédié au suivi de motifs planaires texturés. Nous nous sommes proposés d'adapter cette méthode de suivi 2D à l'estimation du mouvement apparent d'objets 3D. Pour cela, l'objet 3D est modélisé à l'aide d'une collection d'images de référence. Pour chacune de ces vues, la solution 2D citée précédemment permet de suivre les mouvements fronto parallèles (déplacements de l'objet parallèlement au plan image) qui ne modifient pas de façon majeure l'aspect apparent dans l'image. Le point délicat, solutionné dans le cadre de cette thèse, est la détection et la gestion du changement d'aspect du motif suivi dû à des rotations relatives (caméra/objet) en site et azimut. Sur le plan pratique, l'approche proposée a permis le développement d'un système expérimental de suivi d'un visage et la navigation automatique d'un bras robotique, muni d'une caméra embarquée, autour d'un objet 3D.
29

Bechar, Hassane. "Comparaison d'images : Application à la surveillance et au suivi de trajectoire". Nancy 1, 1987. http://www.theses.fr/1987NAN10062.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude se base sur la comparaison d'une image stockée en mémoire avec celle provenant de la caméra. L'étude s'est effectuée à l'aide d'un dispositif cablé qui donne un résultat visuel et un résultat numérique en temps réel. Un logiciel permet d'obtenir les mêmes résultats mais en temps différé
30

Meyer, François. "Suivi de regions et analyse des trajectoires dans une sequence d'images". Rennes 1, 1993. http://www.theses.fr/1993REN10070.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these aborde le probleme de l'elaboration et de l'interpretation des trajectoires de plusieurs objets en mouvement, a partir d'une sequence d'images. Contrairement aux methodes classiques de suivi de primitives dans l'image, l'utilisation de regions et de modeles affines de champs de vitesses permet, d'une part d'obtenir une modelisation realiste et robuste du processus de suivi, et d'autre part d'avoir acces directement a la trajectoire dense des projections de l'objet dans l'image. La coherence temporelle du mouvement a ete utilisee pour obtenir des trajectoires lissees des regions a partir de longues sequences d'images. Les outils mis en uvre sont les techniques classiques de filtrage et de lissage recursif. Les contributions essentielles de cette these a l'analyse du mouvement a partir de sequences d'images portent sur deux points. D'une part, la realisation d'un algorithme de suivi de regions qui permet d'obtenir des trajectoires completes d'objets en mouvement, meme dans le cas ou les objets disparaissent puis reapparaissent. D'autre part, l'interpretation du mouvement tridimensionnel a partir d'une sequence d'images monoculaires, en utilisant seulement des modeles affines de champ de vitesses. Les resultats encourageants que nous avons observes sur de nombreuses sequences d'images reelles ont permis de valider et de montrer l'interet de notre approche
31

Primet, Maël. "Méthodes probabilistes pour le suivi de points et l'analyse d'images biologiques". Paris 5, 2011. http://www.theses.fr/2011PA05S009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse au problème du suivi d’objets, que nous abordons par des méthodes statistiques. La première contribution de cette thèse est la conception d’un algorithme de suivi de bactéries dans une séquence d’image et de reconstruction de leur lignage, travail ayant donné lieu à la réalisation d’une suite logicielle aujourd’hui utilisée dans un laboratoire de recherche en biologie. La deuxième contribution est une étude théorique du problème de la détection de trajectoires dans un nuage de points. Nous définissons un détecteur de trajectoires utilisant le cadre statistique des méthodes a contrario, qui ne requiert essentiellement aucun paramètre pour fonctionner. Ce détecteur fournit des résultats remarquables, et permet notamment de retrouver des trajectoires dans des séquences contenant un grand nombre de points de bruit, tout en conservant un taux de fausses détections de trajectoires très faible. Nous étudions ensuite plus spécifiquement le problème de l’affectation de nuages de points entre deux images, problème rencontré notamment pour la détection de trajectoires ou l’appariement d’images stéréographiques. Nous proposons d’abord un modèle théoriquement optimal pour l’affectation de points qui nous permet d’étudier les performances de plusieurs algorithmes classiques dans différentes conditions. Nous formulons ensuite un algorithme sans paramètre en utilisant le cadre a contrario, ce qui nous permet ensuite d’obtenir un nouvel algorithme de suivi de trajectoires
The subject of this thesis is the problem of object tracking, that we approached using statistical methods. The first contribution of this work is the conception of a tracking algorithm of bacterial cells in a sequence of image, to recover their lineage; this work has led to the implementation of a software suite that is currently in use in a research laboratory. The second contribution is a theoretical study of the detection of trajectories in a cloud of points. We define a trajectory detector using the a-contrario statistical framework, which requires essentially no parameter to run. This detector yields remarkable results, and is in particular able to detect trajectories in sequences containing a large number of noise points, while keeping a very low number of false detections. We then study more specifically the correspondence problem between two point clouds, a problem often encountered for the detection of trajectories or the matching of stereographic images. We first introduce a theoretically optimal model for the point correspondence problem that makes it possible to study the performances of several classical algorithms in a variety of conditions. We then formulate a parameterless point correspondence algorithm using the a-contrario framework, that enables us to define a new trajectory tracking algorithm
32

Llucia, Ludovic. "Suivi d'objets à partir d'images issues de caméras mobiles non calibrées". Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La finalité industrielle de ce travail est la réalisation d’un simulateur qui permette aux entraîneurs de football de mieux interpréter certaines situations de jeu à partir de séquences vidéo en en proposant une vision 3D, mais aussi de présenter de la manière la plus ergonomique qui soit des schémas de jeux sur la base de ces situations réelles. De plus, contrairement à ce qui se pratique assez couramment dans ce cadre-là, nous avons souhaité – pour des raisons de souplesse d’utilisation – rester dans un cadre assez large et ne pas profiter d’une phase préalable (fastidieuse) de calibrage, ce qui a été à l’origine de verrous scientifiques et technologiques que nous avons cherché à résoudre, et pour lesquels nous proposons des solutions dans la première partie. Les problèmes que nous avons eu à traiter sont de deux natures, informatiques d’une part et ergonomiques d’autre part. Il s’est agi, par exemple, de caractériser la transformation homographique permettant de passer de l’image au modèle, de retrouver la position de la caméra ou de déterminer automatiquement à quelle zone du terrain correspond l’image acquise. Et, au niveau ergonomique, il s’est agi de reproduire le plus fidèlement possible les modes d’appréhension de la réalité terrain, ainsi que de modélisation et de communication des entraîneurs de football
This work refers to a 3D simulator that has for purpose to help football trainers interpreting tactical sequences based on real situations. This simulator has to be able to interpret video movies, to reconstruct a situation. The camera’s calibration state has to be as simple as possible. The first part of this document refers to the solution elaborated to implement this constraint whereas the second one is more oriented on the industrialisation process. These processes imply to focus on vision computing and ergonomics problems and to answer questions such as : how to characterize a homographic transformation matching the image and the model ? How to retrieve the position of the camera? Which area is part of the image? In an ergonomically point of view, the simulator has to reproduce the game play reality and to improve the abstraction and the communication of the coaches
33

Bechar, Hassane. "Comparaison d'images application à la surveillance et au suivi de trajectoire /". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602702g.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Lefèvre, Sébastien. "Détection d'événements dans une séquence vidéo". Phd thesis, Université François Rabelais - Tours, 2002. http://tel.archives-ouvertes.fr/tel-00278073.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
35

Mikram, Mounia. "Suivi d'objets dans une séquence d'images par modèle d'apparence : conception et évaluation". Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13736/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail présenté dans ce mémoire s’inscrit dans le cadre du suivi d'objets dans des vidéos, et plus particulièrement, sur l'utilisation de représentations par modèle d'apparence pour le suivi. La notion de modèle d'apparence est précisée sur la base de l'extraction de descripteurs visuels comparés à l'aide de similarités à une référence. De nouvelles techniques pour évaluer les performances vis à vis du suivi sont présentées. Les approches classiques d’évaluation considèrent uniquement la qualité des trajectoires finales estimées. Les métriques proposées dans ce mémoire s’en distinguent par le fait qu’elles quantifient la performance intrinsèque des modèles d’apparence utilisés au sein du système. Deux axes sont ainsi développés : d’une part, un ensemble de mesures de la précision spatiale d’un modèle couplées à la mesure de la robustesse vis-à-vis d’une initialisation spatiale approximative, et d’autre part, la proposition d’une méthodologie permettant de mesurer la stabilité d’un modèle du point de vue temporel sur des données vidéos naturelles. Ces techniques seront utilisées dans la suite du mémoire pour évaluer les méthodes existantes ainsi que celles présentées. Deux nouveaux modèles d'apparence sont ensuite introduits. Le premier modèle dénommé l’histogramme multi-échelles permet de limiter les ambigüités liées à la représentation par histogramme de couleurs. Le deuxième modèle, fondé sur une extension de la métrique de Matusita pour la comparaison de distributions de couleurs, prend en compte les variations possibles des couleurs des objets liées aux conditions de changement d’illumination. Enfin, le lien entre modèle d'apparence et technique de recherche de la position optimale est abordé dans le contexte du suivi multi-noyaux à travers la proposition d'un nouvel algorithme de suivi basé sur une approche compositionnelle inverse. Celui-ci offre un temps de calcul fortement réduit pour une qualité de suivi similaire aux algorithmes existants
Abstract
36

Grégoire, Vincent. "Suivi des piétons par fusion d'images infrarouges et visibles en scènes intérieures". Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23765/23765.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Mostafaoui, Ghilès. "Détection de mouvements et suivi de personnes dans les séquences d'images couleurs". Paris 6, 2005. http://www.theses.fr/2005PA066446.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Tacchella, Jean-Marc. "Méthodes d'analyse de volumes d'images multimodales pour le suivi longitudinal en oncologie". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066049/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le suivi longitudinal en oncologie consiste à évaluer régulièrement l'évolution tumorale afin de définir un protocole de traitement adapté à chaque patient. Il est alors nécessaire d'identifier des biomarqueurs pertinents, qui permettent de quantifier précocement l'évolution tumorale. Les examens d'imagerie permettent d’assurer un suivi non invasif et de proposer des biomarqueurs complémentaires de ceux préexistants. Cette recherche de nouveaux biomarqueurs nécessite de s’appuyer sur des études cliniques et d’effectuer une étude comparative des examens réalisés à différents temps, dans différentes modalités, et ce tant au niveau global que local. Dans cette thèse, nous nous sommes attachés à développer une approche intégrée de traitement d’images pour analyser la pertinence d'indices pour le suivi tumoral. Cette stratégie se décompose en trois étapes: le recalage des données acquises à différents temps et provenant de modalités différentes, la segmentation des lésions tumorales sur les examens de chaque modalité, et le calcul d'indices globaux et locaux traduisant l'évolution spatio-temporelle de la tumeur.L'aspect le plus innovant réside dans l'étape de recalage pour laquelle, au vu des difficultés rencontrées avec les approches classiques, nous avons proposé une nouvelle approche consistant en l'utilisation de plusieurs méthodes de recalage et la sélection de la meilleure pour chaque jeu de données, grâce à un critère quantitatif défini en fonction des applications considérées. L'apport de cette approche a été démontré dans le cadre de deux études cliniques : 1) le suivi de patients atteints de gliomes de haut grade traités par un médicament antiangiogénique nécessitant la mise en correspondance de données de tomographie d’émission monophotonique (TEMP) obtenues après injection de Sestamibi marqué au Technétium-99m avec des images de résonnance magnétique (IRM) pondérées en T1 et acquises après l'injection d'un produit de contraste; 2) le suivi de patients atteints de lésions hépatiques et traités par différents médicaments anticancéreux, nécessitant le recalage de données de perfusion en tomodensitométrie (TDM).La stratégie complète d'analyse a été appliquée à la première étude. Les zones tumorales ont été segmentées sur les IRM en utilisant une méthode classique de Level Set 2D et sur les données TEMP à l'aide de cinq méthodes de seuillage qui diffèrent par les options de choix du seuil. Malgré une forte corrélation en terme de volumes globaux, les indices locaux ont permis de montrer qu'une partie des volumes tumoraux détectés sur les examens TEMP précoces (réalisés 15 minutes après injection) et tardifs (réalisés 3 heures après injection) pouvaient être localisés en-dehors des volumes détectés sur les IRM après injection de Gadolinium. La corrélation élevée constatée entre, d’une part, les variations d'intensité au sein des volumes tumoraux au cours du traitement sur les examens TEMP tardifs et, d’autre part, l'indice de survie globale, suggère que cette variation relative d'intensité pourrait être prédictive de la durée de survie globale des patients, ce qui n’est pas le cas des indices utilisant les données IRM sur notre série limitée de patients. Ainsi ces résultats montrent que l’imagerie TEMP, avec un examen réalisé 3 heures après l’injection de Sestamibi marqué au Technétium-99m, peut être complémentaire de l’IRM, pour évaluer l'évolution tumorale des glioblastomes.Les perspectives de ce travail de thèse sont d'appliquer la stratégie d'analyse à d'autres études cliniques. Néanmoins chaque étape doit être adaptée aux spécificités de l'application concernée, notamment aux modalités d'imagerie impliquées et à la zone anatomique considérée. La principale difficulté à résoudre réside dans l'automatisation et la robustesse des différentes étapes de traitement d’images envisagées
Longitudinal follow-up in oncology consists in assessing tumor progression in order to define a treatment strategy for each patient. It is thus necessary to identify relevant biomarkers that allow an early evaluation of the tumor’s response to the treatment. Biomedical imaging exams help to ensure a non-invasive monitoring of patients and to propose complementary biomarkers to existing ones. This search for new biomarkers requires relying on clinical studies to compare globally and locally exams acquired at different times and in different modalities.In this PhD dissertation, we focused on developing an integrated image processing framework to analyze the relevance of indices for evaluating the tumor evolution. The strategy includes three steps: registration data acquired at different times and in different modalities, the segmentation of tumor lesions on exams in each modality, and the computation of global and local indices reflecting the spatiotemporal evolution of the tumor.The most innovative aspect lies in the registration step: due to the difficulties faced with conventional methods, we proposed a new approach consisting in using several registration methods and selecting the best one for each dataset, thanks to a quantitative criterion based on the specific features of the application. The contribution of this approach was proven in two clinical studies: 1) monitoring of patients with high-grade gliomas treated with an antiangiogenic drug, where Single Photon Emission Tomography data (SPECT) obtained after injection of Technetium-99m Sestamibi have to be matched with T1-weighted Magnetic Resonance Images (MRI) acquired after the injection of a contrast agent; 2) monitoring of patients with liver damage treated with various anticancer drugs, requiring the alignment of Computed Tomography (CT) data.The complete image processing framework was applied to the first study. Tumor areas were segmented on MR images using a conventional 2D Level Set method, as well as on the TEMP data using five thresholding methods that differ in the choice of the threshold options. Despite a strong correlation in terms of overall volumes, local indices have shown that some of the detected tumor volumes on early SPECT exams (performed 15 minutes after injection) and late SPECT exams (performed 3 hours after injection) could be located out of the tumor volumes detected on MRI. The high correlation found between the intensity variations in tumor volume during treatment on late SPECT exams and the index of Overall Survival (OS) suggests that this relative change of intensity could be predictive of the patient overall survival, which is not the case with the indices derived from the MRI data on our limited series of patients. Thus, these results show that SPECT imaging, with an exam performed 3 hours after injection of Technetium-99m Sestamibi, can be complementary to MRI in the assessment of tumor progression in glioblastomas.The main perspective for this PhD work would consist in applying the analysis strategy to other clinical studies. However, each step must be adapted to suit the specific nature of the targeted application, including the imaging modalities involved and the considered anatomical area. The expected sticking points are the automation and the robustness of the different steps of the processing chain
39

Tacchella, Jean-Marc. "Méthodes d'analyse de volumes d'images multimodales pour le suivi longitudinal en oncologie". Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le suivi longitudinal en oncologie consiste à évaluer régulièrement l'évolution tumorale afin de définir un protocole de traitement adapté à chaque patient. Il est alors nécessaire d'identifier des biomarqueurs pertinents, qui permettent de quantifier précocement l'évolution tumorale. Les examens d'imagerie permettent d’assurer un suivi non invasif et de proposer des biomarqueurs complémentaires de ceux préexistants. Cette recherche de nouveaux biomarqueurs nécessite de s’appuyer sur des études cliniques et d’effectuer une étude comparative des examens réalisés à différents temps, dans différentes modalités, et ce tant au niveau global que local. Dans cette thèse, nous nous sommes attachés à développer une approche intégrée de traitement d’images pour analyser la pertinence d'indices pour le suivi tumoral. Cette stratégie se décompose en trois étapes: le recalage des données acquises à différents temps et provenant de modalités différentes, la segmentation des lésions tumorales sur les examens de chaque modalité, et le calcul d'indices globaux et locaux traduisant l'évolution spatio-temporelle de la tumeur.L'aspect le plus innovant réside dans l'étape de recalage pour laquelle, au vu des difficultés rencontrées avec les approches classiques, nous avons proposé une nouvelle approche consistant en l'utilisation de plusieurs méthodes de recalage et la sélection de la meilleure pour chaque jeu de données, grâce à un critère quantitatif défini en fonction des applications considérées. L'apport de cette approche a été démontré dans le cadre de deux études cliniques : 1) le suivi de patients atteints de gliomes de haut grade traités par un médicament antiangiogénique nécessitant la mise en correspondance de données de tomographie d’émission monophotonique (TEMP) obtenues après injection de Sestamibi marqué au Technétium-99m avec des images de résonnance magnétique (IRM) pondérées en T1 et acquises après l'injection d'un produit de contraste; 2) le suivi de patients atteints de lésions hépatiques et traités par différents médicaments anticancéreux, nécessitant le recalage de données de perfusion en tomodensitométrie (TDM).La stratégie complète d'analyse a été appliquée à la première étude. Les zones tumorales ont été segmentées sur les IRM en utilisant une méthode classique de Level Set 2D et sur les données TEMP à l'aide de cinq méthodes de seuillage qui diffèrent par les options de choix du seuil. Malgré une forte corrélation en terme de volumes globaux, les indices locaux ont permis de montrer qu'une partie des volumes tumoraux détectés sur les examens TEMP précoces (réalisés 15 minutes après injection) et tardifs (réalisés 3 heures après injection) pouvaient être localisés en-dehors des volumes détectés sur les IRM après injection de Gadolinium. La corrélation élevée constatée entre, d’une part, les variations d'intensité au sein des volumes tumoraux au cours du traitement sur les examens TEMP tardifs et, d’autre part, l'indice de survie globale, suggère que cette variation relative d'intensité pourrait être prédictive de la durée de survie globale des patients, ce qui n’est pas le cas des indices utilisant les données IRM sur notre série limitée de patients. Ainsi ces résultats montrent que l’imagerie TEMP, avec un examen réalisé 3 heures après l’injection de Sestamibi marqué au Technétium-99m, peut être complémentaire de l’IRM, pour évaluer l'évolution tumorale des glioblastomes.Les perspectives de ce travail de thèse sont d'appliquer la stratégie d'analyse à d'autres études cliniques. Néanmoins chaque étape doit être adaptée aux spécificités de l'application concernée, notamment aux modalités d'imagerie impliquées et à la zone anatomique considérée. La principale difficulté à résoudre réside dans l'automatisation et la robustesse des différentes étapes de traitement d’images envisagées
Longitudinal follow-up in oncology consists in assessing tumor progression in order to define a treatment strategy for each patient. It is thus necessary to identify relevant biomarkers that allow an early evaluation of the tumor’s response to the treatment. Biomedical imaging exams help to ensure a non-invasive monitoring of patients and to propose complementary biomarkers to existing ones. This search for new biomarkers requires relying on clinical studies to compare globally and locally exams acquired at different times and in different modalities.In this PhD dissertation, we focused on developing an integrated image processing framework to analyze the relevance of indices for evaluating the tumor evolution. The strategy includes three steps: registration data acquired at different times and in different modalities, the segmentation of tumor lesions on exams in each modality, and the computation of global and local indices reflecting the spatiotemporal evolution of the tumor.The most innovative aspect lies in the registration step: due to the difficulties faced with conventional methods, we proposed a new approach consisting in using several registration methods and selecting the best one for each dataset, thanks to a quantitative criterion based on the specific features of the application. The contribution of this approach was proven in two clinical studies: 1) monitoring of patients with high-grade gliomas treated with an antiangiogenic drug, where Single Photon Emission Tomography data (SPECT) obtained after injection of Technetium-99m Sestamibi have to be matched with T1-weighted Magnetic Resonance Images (MRI) acquired after the injection of a contrast agent; 2) monitoring of patients with liver damage treated with various anticancer drugs, requiring the alignment of Computed Tomography (CT) data.The complete image processing framework was applied to the first study. Tumor areas were segmented on MR images using a conventional 2D Level Set method, as well as on the TEMP data using five thresholding methods that differ in the choice of the threshold options. Despite a strong correlation in terms of overall volumes, local indices have shown that some of the detected tumor volumes on early SPECT exams (performed 15 minutes after injection) and late SPECT exams (performed 3 hours after injection) could be located out of the tumor volumes detected on MRI. The high correlation found between the intensity variations in tumor volume during treatment on late SPECT exams and the index of Overall Survival (OS) suggests that this relative change of intensity could be predictive of the patient overall survival, which is not the case with the indices derived from the MRI data on our limited series of patients. Thus, these results show that SPECT imaging, with an exam performed 3 hours after injection of Technetium-99m Sestamibi, can be complementary to MRI in the assessment of tumor progression in glioblastomas.The main perspective for this PhD work would consist in applying the analysis strategy to other clinical studies. However, each step must be adapted to suit the specific nature of the targeted application, including the imaging modalities involved and the considered anatomical area. The expected sticking points are the automation and the robustness of the different steps of the processing chain
40

Dehais, Christophe. "Contributions pour les applications de réalité augmentée : suivi visuel et recalage 2D. Suivi d'objets 3D représentés par des modèles par points". Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7244/1/dehais.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente plusieurs méthodes de recalage pour les applications de réalité augmentée (R.A.). Nous décrivons d'abord des expériences de R.A. utilisant des recalages et suivis uniquement 2D. Nous nous intéressons ensuite au suivi visuel d'un objet naturel dont on connaît un modèle 3D et dont l'image peut ainsi être augmentée avec une cohérence spatiale et temporelle. Dans une première partie, nous proposons d'abord d'utiliser un recalage homographique en temps-réel pour augmenter des séquences filmées par une caméra en rotation autour de son centre optique. Dans une autre application, des transformations non rigides sont calculées hors ligne pour augmenter les images naturelles des parois gravées d'une grotte préhistorique. Le recalage géométrique des interprétations graphiques d'un préhistorien permet de créer un logiciel de découverte interactive des parois. Dans la seconde et majeure partie de ce travail, nous partons des méthodes de suivi 3D de l'état de l'art prises parmi les plus performantes. Ces méthodes consistent à suivre un objet naturel connaissant sa représentation par un maillage 3D. Nous proposons une approche de suivi visuel 3D utilisant quant à elle des modèles par points de l'objet. Ce type de modèle, caractérisé par l'absence de topologie, est encore peu utilisé en vision par ordinateur mais il présente une souplesse intéressante par rapport aux modèles constitués de facettes. La méthode de suivi que nous proposons consiste à interpréter des mises en correspondances 2D entre points d'intérêt en termes de variations de positions 3D. Le processus d'estimation sous-jacent utilise des champs de mouvements déduits des modèles 3D par points et des reconstructions par Moving Least Squares et splatting. Ces techniques développées par la communauté d'informatique graphique s'attachent à reconstruire localement (explicitement ou implicitement) la surface de l'objet à suivre et certains attributs dénis de manière éparse sur le nuage de points. Nous les adaptons à l'interpolation des champs de mouvements. L'avantage de notre approche est d'aboutir à un algorithme enchaînant quelques étapes d'estimation linéaires pour la détermination du mouvement 3D inter-images. Notre technique de résolution est intégrée à une adaptation originale d'un algorithme de suivi visuel de l'état de l'art qui repose sur un suivi hybride, combinant les informations issues de l'image précédente et celles apportées par des images clés acquises hors ligne. Une des particularités de notre implantation vient aussi de l'exploitation des capacités des unités de calcul graphiques (GPU) modernes pour les parties critiques de l'algorithme (extraction de points d'intérêt, appariement et calcul de champs de mouvements).
41

Ricquebourg, Yann. "Analyse de mouvements articules : mesure et suivi 2d ; application a la telesurveillance". Rennes 1, 1997. http://www.theses.fr/1997REN10221.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail concerne l'analyse du mouvement articule dans des sequences d'images video et en particulier l'analyse du mouvement humain (marche, gestes, etc. ). Le schema defini s'appuie sur l'estimation du mouvement apparent de la silhouette, conduisant a un suivi temporel et a la construction de trajectoires 2d des contours des differentes parties des corps articules. Il se decompose en trois etapes principales. La premiere phase de detection des zones mobiles vise a determiner les <<<>regions d'interet<>>> dans la scene, par l'extraction des zones ou des changements temporels de l'intensite interviennent. Cette detection s'inscrit dans un cadre de regularisation statistique permettant d'eliminer les fausses alarmes et de delimiter au mieux les zones d'interet. La seconde phase concerne l'etape de mesure 2d du mouvement. Considerant une approche basee <<<>contours<>>> mieux adaptee au cas du mouvement humain dans une sequence video, nous avons developpe une approche d'estimation du deplacement des contours, neanmoins limitee a la composante normale a ceux-ci (<<<>probleme de l'ouverture<>>>). Nous modelisons ces contours en mouvement par des portions de surfaces spatio-temporelles qu'ils engendrent dans l'espace (x,y,t) de la sequence. Une regularisation markovienne donne une estimation a la fois fiable et precise. L'extension sous-pixelique des calculs se derive naturellement de notre modelisation, devenant ainsi une partie integrante du procede et non une etape posterieure. Une optimisation efficace de la fonction d'energie ainsi construite est proposee, se ramenant a de simples operations de convolution. Enfin, la troisieme etape consiste en la realisation d'un suivi temporel du mouvement articule. Nous exploitons des coupes de l'espace (x,y,t) de la sequence, en particulier des plans spatio-temporel (x,t), ou il s'avere que des mouvement articules, comme la demarche d'un passant, forment des <<<>signatures<>>> caracteristiques. Dans ce cadre, une interaction entre les etapes 2 et 3 est mise en uvre, utilisant une prediction de type kalman afin de suivre les contours plus efficacement, notamment dans les periodes de croisement et d'occulation. Les trajectoires ainsi construites en ligne autorisent la mise en place d'une classification simple des entites observees en mouvement dans la scene. La methode a ete evaluee sur des exemples de scene reelle.
42

Garcia, Vincent. "Suivi d'objets d'intérêt dans une séquence d'images : des points saillants aux mesures statistiques". Nice, 2008. http://www.theses.fr/2008NICE4059.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème du suivi d’objets dans une vidéo se pose dans des domaines tels que la vision par ordinateur (vidéosurveillance par exemple) et la post-production télévisuelle et cinématographique (effets spéciaux). Il se décline en deux variantes principales : le suivi d’une région d’intérêt, qui désigne un suivi grossier d’objet, et la segmentation spatiotemporelle, qui correspond à un suivi précis des contours de l’objet d’intérêt. Dans les deux cas, la région ou l’objet d’intérêt doivent avoir été préalablement détourés sur la première, et éventuellement la dernière, image de la séquence vidéo. Nous proposons dans cette thèse une méthode pour chacun de ces types de suivi ainsi qu’une implémentation rapide tirant partie du Graphics Processing Unit (GPU) d’une méthode de suivi de régions d’intérêt développée par ailleurs. La première méthode repose sur l’analyse de trajectoires temporelles de points saillants et réalise un suivi de régions d’intérêt. Des points saillants (typiquement des lieux de forte courbure des lignes isointensité) sont détectés dans toutes les images de la séquence. Les trajectoires sont construites en liant les points des images successives dont les voisinages sont cohérents. Notre contribution réside premièrement dans l’analyse des trajectoires sur un groupe d’images, ce qui améliore la qualité d’estimation du mouvement. De plus, nous utilisons une pondération spatio-temporelle pour chaque trajectoire qui permet d’ajouter une contrainte temporelle sur le mouvement tout en prenant en compte les déformations géométriques locales de l’objet ignorées par un modèle de mouvement global. La seconde méthode réalise une segmentation spatio-temporelle. Elle repose sur l’estimation du mouvement du contour de l’objet en s’appuyant sur l’information contenue dans une couronne qui s’étend de part et d’autre de ce contour. Cette couronne nous renseigne sur le contraste entre le fond et l’objet dans un contexte local. C’est là notre première contribution. De plus, la mise en correspondance par une mesure de similarité statistique, à savoir l’entropie du résiduel, d’une portion de la couronne et d’une zone de l’image suivante dans la séquence permet d’améliorer le suivi tout en facilitant le choix de la taille optimale de la couronne. Enfin, nous proposons une implémentation rapide d’une méthode de suivi de régions d’intérêt existante. Cette méthode repose sur l’utilisation d’une mesure de similarité statistique : la divergence de Kullback-Leibler. Cette divergence peut être estimée dans un espace de haute dimension à l’aide de multiples calculs de distances au k-ème plus proche voisin dans cet espace. Ces calculs étant très coûteux, nous proposons une implémentation parallèle sur GPU (grâce à l’interface logiciel CUDA de NVIDIA) de la recherche exhaustive des k plus proches voisins. Nous montrons que cette implémentation permet d’accélérer le suivi des objets, jusqu’à un facteur 15 par rapport à une implémentation de cette recherche nécessitant au préalable une structuration des données
The problem of object tracking is a problem arising in domains such as computer vision (video surveillance for instance) and cinematographic post-production (special effects). There are two major classes of solution to this problem : region of interest tracking, which indicates a coarse tracking, and space-time segmentation, which corresponds to a precise tracking of the region of interest’s contour. In both cases, the region of interest must be selected beforehand on the first, and possibly on the last image of the video sequence. In this thesis, we propose two tracking methods (one of each type). We propose also a fast implementation of an existing tracking method using the programmation on Graphics Processing Unit (GPU). The first method is based on the analysis of temporal trajectories of salient points and provides a region of interest tracking. Salient points (typically of point of strong curvature of the isointensity lines) are detected in all the images of the sequence. The trajectories are built by matching salient points of consecutive images whose neighbourhoods are coherent. Our first contribution consists in the analysis of the trajectories on a group of pictures, which improves the motion estimation quality. Moreover, we use a space-time weighting for each trajectory which makes it possible to add a temporal constraint on the movement while taking into account the local geometrical deformations of the object ignored by a global motion model. The second method performs a space-time segmentation. The object contour motion is estimated using the information contained in an outer-layer centered on the object contour. Our first contribution is the use of this outer-layer which contains information about both the background and the object in a local context. The matching using a statistical similarity measure (residual entropy) allows to improve the tracking while facilitating the choice of the optimal size of the crown. Finally, we propose a fast implementation of an existing tracking method of region of interest. This method relies on the use of a statistical similarity measure : the Kullback-Leibler divergence. This divergence can be estimated in a high dimension space using k-th nearest neighbors distance. These calculations being computationally very expensive, we propose a parallel implementation of the exhaustive search of the k-th nearest neighbors using GPU programming (via the programming interface NVIDIA CUDA). We show that this implementation speeds-up the tracking process up to a factor 15 compared to a classical implementation of this search using data structuring methods
43

Vincent, Garcia. "Suivi d'objets d'intérêt dans une séquence d'images : des points saillants aux mesures statistiques". Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00374657.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème du suivi d'objets dans une vidéo se pose dans des domaines tels que la vision par ordinateur (vidéo-surveillance par exemple) et la post-production télévisuelle et cinématographique (effets spéciaux). Il se décline en deux variantes principales : le suivi d'une région d'intérêt, qui désigne un suivi grossier d'objet, et la segmentation spatio-temporelle, qui correspond à un suivi précis des contours de l'objet d'intérêt. Dans les deux cas, la région ou l'objet d'intérêt doivent avoir été préalablement détourés sur la première, et éventuellement la dernière, image de la séquence vidéo. Nous proposons dans cette thèse une méthode pour chacun de ces types de suivi ainsi qu'une implémentation rapide tirant partie du Graphics Processing Unit (GPU) d'une méthode de suivi de régions d'intérêt développée par ailleurs.
La première méthode repose sur l'analyse de trajectoires temporelles de points saillants et réalise un suivi de régions d'intérêt. Des points saillants (typiquement des lieux de forte courbure des lignes isointensité) sont détectés dans toutes les images de la séquence. Les trajectoires sont construites en liant les points des images successives dont les voisinages sont cohérents. Notre contribution réside premièrement dans l'analyse des trajectoires sur un groupe d'images, ce qui améliore la qualité d'estimation du mouvement. De plus, nous utilisons une pondération spatio-temporelle pour chaque trajectoire qui permet d'ajouter une contrainte temporelle sur le mouvement tout en prenant en compte les déformations géométriques locales de l'objet ignorées par un modèle de mouvement global.
La seconde méthode réalise une segmentation spatio-temporelle. Elle repose sur l'estimation du mouvement du contour de l'objet en s'appuyant sur l'information contenue dans une couronne qui s'étend de part et d'autre de ce contour. Cette couronne nous renseigne sur le contraste entre le fond et l'objet dans un contexte local. C'est là notre première contribution. De plus, la mise en correspondance par une mesure de similarité statistique, à savoir l'entropie du résiduel, d'une portion de la couronne et d'une zone de l'image suivante dans la séquence permet d'améliorer le suivi tout en facilitant le choix de la taille optimale de la couronne.
Enfin, nous proposons une implémentation rapide d'une méthode de suivi de régions d'intérêt existante. Cette méthode repose sur l'utilisation d'une mesure de similarité statistique : la divergence de Kullback-Leibler. Cette divergence peut être estimée dans un espace de haute dimension à l'aide de multiples calculs de distances au k-ème plus proche voisin dans cet espace. Ces calculs étant très coûteux, nous proposons une implémentation parallèle sur GPU (grâce à l'interface logiciel CUDA de NVIDIA) de la recherche exhaustive des k plus proches voisins. Nous montrons que cette implémentation permet d'accélérer le suivi des objets, jusqu'à un facteur 15 par rapport à une implémentation de cette recherche nécessitant au préalable une structuration des données.
44

Djemal, Khalifa. "Segmentation par contour actif et suivi automatique d'un objet dans une séquence d'images". Toulon, 2002. http://www.theses.fr/2002TOUL0017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Avenel, Christophe. "Suivi de courbes libres fermées déformables par processus stochastiques". Rennes 1, 2011. http://www.theses.fr/2011REN1S116.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse conjointe du mouvement et des déformations est cruciale dans un grand nombre d'applications de vision par ordinateur. Cette thèse propose d'introduire un filtre stochastique non linéaire afin de suivre une courbe libre dans le temps. L'approche proposée est implémentée à travers un filtre particulaire incluant des mesures colorimétriques caractérisant respectivement la cible et le fond. La dynamique impliquée est formulée sous la forme d'une équation différentielle stochastique. Cela permet d'avoir une représentation continue de la trajectoire de la courbe, et d'être ainsi capable d'en déduire les déformations entre images. La courbe est définie par une courbe de niveau implicite, et la dynamique stochastique s'exprime sur cette dernière. Cela prend la forme d'une équation différentielle stochastique avec un mouvement Brownien de faible dimension. Dans ces modèles d'évolution sont combinés les informations de mouvement locales extraites des images et un modèle d'incertitude de la dynamique. Le filtrage associé proposé pour le suivi de courbes appartient ainsi à la famille des filtrages particulaires conditionnels. Ses capacités sont vérifiées sur différentes séquences contenant des objets fortement déformables
The joint analysis of movement and deformation is crucial in many computer vision applications. This thesis proposes a stochastic non-linear filter to track a free curve in time. The proposed approach is implemented through a particle filter including colorimetric measurements characterizing respectively the target and the background. The involved dynamics is formulated as a stochastic differential equation. This allows a continuous representation of the curve trajectory, and thus the possibility to deduce the deformation between images. The curve is defined by an implicit level set, on which the stochastic dynamics is expressed. This takes the form of a stochastic differential equation with a Brownian motion of small dimension. We combined in these evolution models a local motion information extracted from the images and a model of the uncertainty of the dynamics. The associated filter proposed for curve tracking thus belongs to the family of conditional particle filters. Its capabilities are tested on different sequences containing highly deformable objects
46

Dietrich, Gabriel de. "Segmentation d'organes tubulaires par suivi de squelette". Bordeaux 1, 2003. http://www.theses.fr/2003BOR12670.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées technologiques dans le domaine de l'imagerie médicale 3D permettent aux médecins d'obtenir un volume d'informations bien supérieur à celui de l'imagerie projective (radiologie, etc. . . ). Il y a par conséquence un besoin d'outils d'aide à l'analyse de ces organes tubulaires (bronches et vaisseaux sanguins), une méthode adaptée d'aide à la segmentation. Cette méthode reste très générale et indépendante de l'organe étudié (vaisseau sanguin ou bronche). Une présegmentation grossière du volume permet de construire un squelette de l'organe. Ce squelette nous permet de placer, en tout point de l'organe, un plan de coupe nous donnant une section optimale de l'organe étudié. Une fois ces coupes extraites, il est possible d'appliquer des méthodes de segmentation classiques issues de l'imagerie 2D.
47

Nguyen, Quoc Dinh. "Détection et suivi automatique du mouvement des lèvres". Paris 6, 2010. http://www.theses.fr/2010PA066650.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La détection et le suivi du mouvement de la bouche est une étape préalable à de nombreux systèmes de traitement de flux vidéo ou d'interaction homme-machine (e. G. La lecture labiale, la reconnaissance des expressions, le maquillage en ligne). Le problème consiste à détecter les lèvres dans une image et au suivi de leur mouvement dans une séquence vidéo. Pour la tâche de détection, nous proposons deux méthodes : l'une se base sur la règle de Bayes pour segmenter les lèvres de la peau dans une image en couleur. L'autre méthode se base sur un modèle actif de forme pour localiser les points caractéristiques des contours des lèvres. Pour la tâche de suivi, nous proposons deux méthodes adaptatives : l'une peut être considérée comme une généralisation du modèle actif de forme et d'apparence. Nous construisons un modèle spécifique qui réalise son apprentissage en ligne sur la séquence vidéo : la forme, la texture, les caractéristiques locales de la bouche sont apprises directement à partir de la séquence. Notre méthode possède plusieurs avantages : tout d'abord, l'étape d'entraînement hors ligne est complexe et prend beaucoup de temps de préparation, un apprentissage en ligne permet de l'éviter; ensuite, notre méthode a la capacité de s'adapter aux nouveaux environnements; enfin, elle donne de meilleurs résultats que celles de la littérature. Ensuite, nous présentons une méthode qui permet de suivre un visage parlant dans une séquence. Notre méthode utilise toutes les connaissances disponibles non seulement en ligne mais aussi hors ligne. Il est connu qu'un système adaptatif présente un problème de dérive qui correspond à une divergence du modèle qui peut s'éloigner lentement de l'objet après un certain nombre d'images dans la séquence. Nous proposons d'utiliser un apprentissage hors ligne pour sélectionner les informations pertinentes. L'expérimentation montre que notre méthode donne de meilleurs résultats que la méthode IVT
48

Sekkal, Rafiq. "Techniques visuelles pour la détection et le suivi d’objets 2D". Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0032/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nos jours, le traitement et l’analyse d’images trouvent leur application dans de nombreux domaines. Dans le cas de la navigation d’un robot mobile (fauteuil roulant) en milieu intérieur, l’extraction de repères visuels et leur suivi constituent une étape importante pour la réalisation de tâches robotiques (localisation, planification, etc.). En particulier, afin de réaliser une tâche de franchissement de portes, il est indispensable de détecter et suivre automatiquement toutes les portes qui existent dans l’environnement. La détection des portes n’est pas une tâche facile : la variation de l’état des portes (ouvertes ou fermées), leur apparence (de même couleur ou de couleur différentes des murs) et leur position par rapport à la caméra influe sur la robustesse du système. D’autre part, des tâches comme la détection des zones navigables ou l’évitement d’obstacles peuvent faire appel à des représentations enrichies par une sémantique adaptée afin d’interpréter le contenu de la scène. Pour cela, les techniques de segmentation permettent d’extraire des régions pseudo-sémantiques de l’image en fonction de plusieurs critères (couleur, gradient, texture…). En ajoutant la dimension temporelle, les régions sont alors suivies à travers des algorithmes de segmentation spatio-temporelle. Dans cette thèse, des contributions répondant aux besoins cités sont présentées. Tout d’abord, une technique de détection et de suivi de portes dans un environnement de type couloir est proposée : basée sur des descripteurs géométriques dédiés, la solution offre de bons résultats. Ensuite, une technique originale de segmentation multirésolution et hiérarchique permet d’extraire une représentation en régions pseudosémantique. Enfin, cette technique est étendue pour les séquences vidéo afin de permettre le suivi des régions à travers le suivi de leurs contours. La qualité des résultats est démontrée et s’applique notamment au cas de vidéos de couloir
Nowadays, image processing remains a very important step in different fields of applications. In an indoor environment, for a navigation system related to a mobile robot (electrical wheelchair), visual information detection and tracking is crucial to perform robotic tasks (localization, planning…). In particular, when considering passing door task, it is essential to be able to detect and track automatically all the doors that belong to the environment. Door detection is not an obvious task: the variations related to the door status (open or closed), their appearance (e.g. same color as the walls) and their relative position to the camera have influence on the results. On the other hand, tasks such as the detection of navigable areas or obstacle avoidance may involve a dedicated semantic representation to interpret the content of the scene. Segmentation techniques are then used to extract pseudosemantic regions based on several criteria (color, gradient, texture...). When adding the temporal dimension, the regions are tracked then using spatiotemporal segmentation algorithms. In this thesis, we first present joint door detection and tracking technique in a corridor environment: based on dedicated geometrical features, the proposed solution offers interesting results. Then, we present an original joint hierarchical and multiresolution segmentation framework able to extract a pseudo-semantic region representation. Finally, this technique is extended to video sequences to allow the tracking of regions along image sequences. Based on contour motion extraction, this solution has shown relevant results that can be successfully applied to corridor videos
49

Bonnaud, Laurent. "Schémas de suivi d'objets vidéo dans une séquence animée : application à l'interpolation d'images intermédiaires". Phd thesis, Université Rennes 1, 1998. http://tel.archives-ouvertes.fr/tel-00070533.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le cadre général de cette étude est le traitement numérique du signal, appliqué
aux séquences d'images, pour des applications multimédia. Ce travail est
divisé en deux contributions principales~: un algorithme de segmentation
d'images en objets vidéo en mouvement, et une méthode d'interpolation
temporelle opérant sur ces objets.

La segmentation de la séquence est effectuée par un algorithme de suivi
temporel. Un algorithme de segmentation spatio-temporelle est utilisé
initialement pour obtenir des régions dans la première image de la séquence.
Cette partition est ensuite suivie par une technique de contours actifs, qui
opère sur une nouvelle représentation de la segmentation, composée des
frontières ouvertes séparant les régions. L'algorithme estime à la fois le
mouvement des frontières et celui des régions. Il est capable de suivre
plusieurs objets simultanément et de traiter les occultations entre eux. Des
résultats, obtenus sur des séquences d'images réelles, montrent que cet
algorithme permet une bonne stabilité temporelle de la segmentation et une
bonne précision des frontières.

Le but de l'algorithme d'interpolation est de reconstruire des images
intermédiaires entre deux images de la séquence. Il s'agit d'un algorithme de
faible complexité qui peut être utilisé à la fin d'une chaîne codeur/décodeur.
L'interpolation est compensée en mouvement et utilise le mouvement des régions,
estimé pendant la phase de suivi. Il est aussi basé objets, dans le sens où il
utilise la segmentation pour prédire correctement les zones d'occultation. Cet
algorithme peut être utilisé pour trois applications différentes~: le codage
interpolatif (où des images de la séquence sont prédites par interpolation),
l'adaptation de la fréquence de la séquence à la fréquence d'affichage du
terminal de visualisation dans une transmission multipoints et la
reconstruction d'images manquantes (où l'on calcule des images non observées).
Des résultats expérimentaux pour la première application montrent que pour une
qualité de reconstruction donnée, la taux de compression moyen sur un groupe
d'images est plus élevé en utilisant l'interpolation qu'avec une prédiction
causale.
50

Irace, Zacharie. "Modélisation statistique et segmentation d'images TEP : application à l'hétérogénéité et au suivi de tumeurs". Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/12201/1/irace.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie le traitement statistique des images TEP. Plus particulièrement, la distribution binomiale négative est proposée pour modéliser l’activité d’une région mono-tissulaire. Cette représentation a l’avantage de pouvoir prendre en compte les variations d’activité biologique (ou hétérogénéité) d’un même tissu. A partir de ces résultats, il est proposé de modéliser la distribution de l’image TEP entière comme un mélange spatialement cohérent de lois binomiales négatives. Des méthodes Bayésiennes sont considérées pour la segmentation d’images TEP et l’estimation conjointe des paramètres du modèle. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme original de Monte Carlo par Chaîne de Markov (MCMC) est utilisé, faisant appel aux notions d’échantillonnage dans un espace Riemannien et d’opérateurs proximaux. L’approche proposée est appliquée avec succès à la segmentation de tumeurs en imagerie TEP. Cette méthode est ensuite étendue d’une part en intégrant au processus de segmentation des informations anatomiques acquises par tomodensitométrie (TDM), et d’autre part en traitant une série temporelle d’images correspondant aux différentes phases de respiration. Un modèle de mélange de distributions bivariées binomiale négative - normale est proposé pour représenter les images dynamiques TEP et TDM fusionnées. Un modèle Bayésien hiérarchique a été élaboré comprenant un champ de Potts-Markov à quatre dimensions pour respecter la cohérence spatiale et temporelle des images PET-TDM dynamiques. Le modèle proposé montre une bonne qualité d’ajustement aux données et les résultats de segmentation obtenus sont visuellement en concordance avec les structures anatomiques et permettent la délimitation et le suivi de la tumeur.

Vai alla bibliografia