Дисертації з теми "Calibrage camera"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Calibrage camera.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-43 дисертацій для дослідження на тему "Calibrage camera".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Dornaika, Fadi. "Contributions à l'intégration vision-robotique : calibrage, localisation et asservissement." Phd thesis, Grenoble INPG, 1995. http://www.theses.fr/1995INPG0097.

Повний текст джерела
Анотація:
Cette thèse concerne principalement l'intégration des fonctionnalités d'un système de vision avec celles d'un système robotique. Cette intégration apporte beaucoup d'avantages pour l'interaction d'un robot avec son environnement. Dans un premier temps, nous nous intéressons aux aspects de modélisation. Deux sujets liés à cette modélisation ont été traités : i) le calibrage caméra/pince et ii) la localisation caméra/objet. Pour le premier, nous proposons une méthode de calibrage non linéaire qui s'avère robuste en présence des erreurs de mesure ; pour le second, nous proposons une méthode linéaire très rapide et bien adaptée aux applications temps-réel puisqu'elle est basée sur des approximations successives par une projection para-perspective. Dans un deuxième temps, nous nous intéressons au contrôle visuel de robots. Nous adaptons la méthode "commande référencée capteur" à une caméra indépendante du robot asservi. De plus, dans le cas d'un positionnement relatif, nous montrons que le calcul de la position de référence ne dépend pas de l'estimation explicite des paramètres intrinsèques et extrinsèques de la caméra. Pour une tâche donnée, le problème de la commande peut alors se traduire sous la forme d'une régulation d'une erreur dans l'image. Nous montrons que la localisation temps-réel caméra/robot améliore le comportement dynamique de l'asservissement. Cette méthode de contrôle a été expérimentée dans la réalisation de tâches de saisie avec un robot manipulateur à six degrés de liberté. Toutes les méthodes proposées sont validées avec des mesures réelles et simulées
The integration of computer vision with robot control is the concern of this thesis. This integration has many advantages for the interaction of a robotic system with its environment. First, we are interested in the study of calibration methods. Two topics are treated : i) hand/eye calibration and ii) object pose. For the first, we developed a nonlinear method that seems to be very robust with respect to measurement errors; for the second, we developed an iterative para-perspective pose computation method that can be used in real-time applications. Next we are interested in visual servo control and extend the well known method "image-based servoing" for a camera that is not attached to the robot being serv(o)(e)d. When performing relative positioning, we show that the computation of the goal features do not depend on an explicit estimate of the camera intrinsic or extrinsic parameters. For a given task, the robot motions are computed in order to reduce a 2D error to zero. The central issue of any image-based servoing method is the estimation of the image Jacobian. We show the advantage of using an exact image Jacobian with respect to the dynamic behaviour of the servoing process. This control method is used in automatic object grasping with a 6 DOF robot manipulator. All the methods presented in this thesis are validated with real and simulated data
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Draréni, Jamil. "Exploitation de contraintes photométriques et géométriques en vision : application au suivi, au calibrage et à la reconstruction." Grenoble, 2010. http://www.theses.fr/2010GRENM061.

Повний текст джерела
Анотація:
Cette thèse s'intéresse à trois problèmes fondamentaux de la vision par ordinateur qui sont le suivi vidéo, le calibrage et la reconstruction 3D. Les approches proposées sont strictement basées sur des contraintes photométriques et géométriques présentent dans des images 2D. Le suivi de mouvement se fait généralement dans un flux vidéo et consiste à suivre un objet d'intérêt identifié par l'usager. Nous reprenons une des méthodes les plus robustes à cet effet et l'améliorons de sorte à prendre en charge, en plus de ses translations, les rotations qu'effectue l'objet d'intérêt. Par la suite nous nous attelons au calibrage de caméras ; un autre problème fondamental en vision. Il s'agit là, d'estimer des paramètres intrinsèques qui décrivent la projection d'entités 3D dans une image plane. Plus précisément, nous proposons des algorithmes de calibrage plan pour les caméras linéaires (pushbroom) et les vidéo projecteurs lesquels étaient, jusque-là, calibrés de façon laborieuse. Le troisième volet de cette thèse sera consacré à la reconstruction 3D par ombres projetée. À moins de connaissance à priori sur le contenu de la scène, cette technique est intrinsèquement ambigüe. Nous proposons une méthode pour réduire cette ambiguïté en exploitant le fait que les spots de lumières sont souvent visibles dans la caméra
The topic of this thesis revolves around three fundamental problems in computer vision; namely, video tracking, camera calibration and shape recovery. The proposed methods are solely based on photometric and geometric constraints found in the images. Video tracking, usually performed on a video sequence, consists in tracking a region of interest, selected manually by an operator. We extend a successful tracking method by adding the ability to estimate the orientation of the tracked object. Furthermore, we consider another fundamental problem in computer vision: calibration. Here we tackle the problem of calibrating linear cameras (a. K. A: pushbroom)and video projectors. For the former one we propose a convenient plane-based calibration algorithm and for the latter, a calibration algorithm that does not require aphysical grid and a planar auto-calibration algorithm. Finally, we pointed our third research direction toward shape reconstruction using coplanar shadows. This technique is known to suffer from a bas-relief ambiguity if no extra information on the scene or light source is provided. We propose a simple method to reduce this ambiguity from four to a single parameter. We achieve this by taking into account the visibility of the light spots in the camera
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Fang, Yong. "Road scene perception based on fisheye camera, LIDAR and GPS data combination." Thesis, Belfort-Montbéliard, 2015. http://www.theses.fr/2015BELF0265/document.

Повний текст джерела
Анотація:
La perception de scènes routières est un domaine de recherche très actif. Cette thèse se focalise sur la détection et le suivi d’objets par fusion de données d’un système multi-capteurs composé d’un télémètre laser, une caméra fisheye et un système de positionnement global (GPS). Plusieurs étapes de la chaîne de perception sont ´ étudiées : le calibrage extrinsèque du couple caméra fisheye / télémètre laser, la détection de la route et enfin la détection et le suivi d’obstacles sur la route.Afin de traiter les informations géométriques du télémètre laser et de la caméra fisheye dans un repère commun, une nouvelle approche de calibrage extrinsèque entre les deux capteurs est proposée. La caméra fisheye est d’abord calibrée intrinsèquement. Pour cela, trois modèles de la littérature sont étudiés et comparés. Ensuite, pour le calibrage extrinsèque entre les capteurs,la normale au plan du télémètre laser est estimée par une approche de RANSAC couplée `a une régression linéaire `a partir de points connus dans le repère des deux capteurs. Enfin une méthode des moindres carres basée sur des contraintes géométriques entre les points connus, la normale au plan et les données du télémètre laser permet de calculer les paramètres extrinsèques. La méthode proposée est testée et évaluée en simulation et sur des données réelles.On s’intéresse ensuite `a la détection de la route à partir des données issues de la caméra fisheye et du télémètre laser. La détection de la route est initialisée `a partir du calcul de l’image invariante aux conditions d’illumination basée sur l’espace log-chromatique. Un seuillage sur l’histogramme normalisé est appliqué pour classifier les pixels de la route. Ensuite, la cohérence de la détection de la route est vérifiée en utilisant les mesures du télémètre laser. La segmentation de la route est enfin affinée en exploitant deux détections de la route successives. Pour cela, une carte de distance est calculée dans l’espace couleur HSI (Hue,Saturation, Intensity). La méthode est expérimentée sur des données réelles. Une méthode de détection d’obstacles basée sur les données de la caméra fisheye, du télémètre laser, d’un GPS et d’une cartographie routière est ensuite proposée. On s’intéresse notamment aux objets mobiles apparaissant flous dans l’image fisheye. Les régions d’intérêts de l’image sont extraites `a partir de la méthode de détection de la route proposée précédemment. Puis, la détection dans l’image du marquage de la ligne centrale de la route est mise en correspondance avec un modelé de route reconstruit `a partir des données GPS et cartographiques. Pour cela, la transformation IPM (Inverse Perspective Mapping) est appliquée à l’image. Les régions contenant potentiellement des obstacles sont alors extraites puis confirmées à l’aide du télémètre laser.L’approche est testée sur des données réelles et comparée `a deux méthodes de la littérature. Enfin, la dernière problématique étudiée est le suivi temporel des obstacles détectés `a l’aide de l’utilisation conjointe des données de la caméra fisheye et du télémètre laser. Pour cela, les resultats de détection d’obstacles précédemment obtenus sont exploit ´es ainsi qu’une approche de croissance de région. La méthode proposée est également testée sur des données réelles
Road scene understanding is one of key research topics of intelligent vehicles. This thesis focuses on detection and tracking of obstacles by multisensors data fusion and analysis. The considered system is composed of a lidar, a fisheye camera and aglobal positioning system (GPS). Several steps of the perception scheme are studied: extrinsic calibration between fisheye camera and lidar, road detection and obstacles detection and tracking. Firstly, a new method for extinsic calibration between fisheye camera and lidar is proposed. For intrinsic modeling of the fisheye camera, three models of the literatureare studied and compared. For extrinsic calibration between the two sensors, the normal to the lidar plane is firstly estimated based on the determination of ń known ż points. The extrinsic parameters are then computed using a least square approachbased on geometrical constraints, the lidar plane normal and the lidar measurements. The second part of this thesis is dedicated to road detection exploiting both fisheye camera and lidar data. The road is firstly coarse detected considering the illumination invariant image. Then the normalised histogram based classification is validated using the lidar data. The road segmentation is finally refined exploiting two successive roaddetection results and distance map computed in HSI color space. The third step focuses on obstacles detection, especially in case of motion blur. The proposed method combines previously detected road, map, GPS and lidar information.Regions of interest are extracted from previously road detection. Then road central lines are extracted from the image and matched with road shape model extracted from 2DŋSIG map. Lidar measurements are used to validated the results.The final step is object tracking still using fisheye camera and lidar. The proposed method is based on previously detected obstacles and a region growth approach. All the methods proposed in this thesis are tested, evaluated and compared to stateŋofŋtheŋart approaches using real data acquired with the IRTESŋSET laboratory experimental platform
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Szczepanski, Michał. "Online stereo camera calibration on embedded systems." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC095.

Повний текст джерела
Анотація:
Cette thèse décrit une approche de calibration en ligne des caméras stéréo pour des systèmes embarqués. Le manuscrit introduit une nouvelle mesure de la qualité du service de cette fonctionnalité dans les systèmes cyber physiques. Ainsi, le suivi et le calcul des paramètres internes du capteur (requis pour de nombreuses tâches de vision par ordinateur) est réalisé dynamiquement. La méthode permet à la fois d'augmenter la sécurité et d'améliorer les performances des systèmes utilisant des caméras stéréo. Elle prolonge la durée de vie des appareils grâce à cette procédure d'auto-réparation, et peut accroître l'autonomie. Des systèmes tels que les robots mobiles ou les lunettes intelligentes en particulier peuvent directement bénéficier de cette technique.La caméra stéréo est un capteur capable de fournir un large spectre de données. Au préalable, le capteur doit être calibré extrinsèquement, c'est à dire que les positions relatives des deux caméras doivent être déterminées. Cependant, cette calibration extrinsèque peut varier au cours du temps à cause d'interactions avec l'environnement extérieur par exemple (chocs, vibrations...). Ainsi, une opération de recalibration permet de corriger ces effets. En effet, des données mal comprises peuvent entraîner des erreurs et le mauvais fonctionnement des applications. Afin de contrer un tel scénario, le système doit disposer d'un mécanisme interne, la qualité des services, pour décider si les paramètres actuels sont corrects et/ou en calculer des nouveaux, si nécessaire. L'approche proposée dans cette thèse est une méthode d'auto-calibration basée sur l'utilisation de données issues uniquement de la scène observée (sans modèles contrôlés). Tout d'abord, nous considérons la calibration comme un processus système s'exécutant en arrière-plan devant fonctionner en continu et en temps réel. Cette calibration interne n'est pas la tâche principale du système, mais la procédure sur laquelle s'appuient les applications de haut niveau. Pour cette raison, les contraintes systèmes limitent considérablement l'algorithme en termes de complexité, de mémoire et de temps. La méthode de calibration proposée nécessite peu de ressources et utilise des données standards provenant d'applications de vision par ordinateur, de sorte qu'elle est masquée à l'intérieur du pipeline applicatif. Dans ce manuscrit, de nombreuses discussions sont consacrées aux sujets liés à la calibration de caméras en ligne pour des systèmes embarqués, tels que des problématiques sur l'extraction de points d'intérêts robustes et au calcul du facteur d'échelle, les aspects d’implémentation matérielle, les applications de haut niveau nécessitant cette approche, etc.Enfin, cette thèse décrit et explique une méthodologie pour la constitution d'un nouveau type d'ensemble de données, permettant de représenter un changement de position d'une caméra,pour valider l’approche. Le manuscrit explique également les différents environnements de travail utilisés dans la réalisation des jeux de données et la procédure de calibration de la caméra. De plus, il présente un premier prototype de casque intelligent, sur lequel s’exécute dynamiquement le service d’auto-calibration proposé. Enfin, une caractérisation en temps réel sur un processeur embarqué ARM Cortex A7 est réalisée
This thesis describes an approach for online calibration of stereo cameras on embeddedsystems. It introduces a new functionality for cyber physical systems by measuring the qualityof service of the calibration. Thus, the manuscript proposes a dynamic monitoring andcalculation of the internal sensor parameters required for many computer vision tasks. Themethod improves both security and system efficiency using stereo cameras. It prolongs the lifeof the devices thanks to this self-repair capability, which increases autonomy. Systems such asmobile robots or smart glasses in particular can directly benefit from this technique.The stereo camera is a sensor capable of providing a wide spectrum of data. Beforehand, thissensor must be extrinsically calibrated, i.e. the relative positions of the two cameras must bedetermined.. However, camera extrinsic calibration can change over time due to interactionswith the external environment for example (shocks, vibrations...). Thus, a recalibrationoperation allow correcting these effects. Indeed, misunderstood data can lead to errors andmalfunction of applications. In order to counter such a scenario, the system must have aninternal mechanism, a quality of service, to decide whether the current parameters are correctand/or calculate new ones, if necessary.The approach proposed in this thesis is a self-calibration method based on the use of data coming only from the observed scene, without controlled models. First of all, we consider calibration as a system process running in the background and having to run continuously in real time. This internal calibration is not the main task of the system, but the procedure on which high-level applications rely. For this reason, system constraints severely limit the algorithm in terms of complexity, memory and time. The proposed calibration method requires few resources and uses standard data from computer vision applications, so it is hidden within the application pipeline. In this manuscript, we present many discussions to topics related to the online stereocalibration on embedded systems, such as problems on the extraction of robust points ofinterest, the calculation of the scale factor, hardware implementation aspects, high-levelapplications requiring this approach, etc. Finally, this thesis describes and explains amethodology for the building of a new type of dataset to represent the change of the cameraposition to validate the approach. The manuscript also explains the different workenvironments used in the realization of the datasets and the camera calibration procedure. Inaddition, it presents the first prototype of a smart helmet, on which the proposed self-calibration service is dynamically executed. Finally, this thesis characterizes the real-timecalibration on an embedded ARM Cortex A7 processor
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Rameau, François. "Système de vision hybride à fovéation pour la vidéo-surveillance et la navigation robotique." Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOS031/document.

Повний текст джерела
Анотація:
L'objectif principal de ce travail de thèse est l'élaboration d'un système de vision binoculaire mettant en oeuvre deux caméras de types différents. Le système étudié est constitué d'une caméra de type omnidirectionnelle associée à une caméra PTZ. Nous appellerons ce couple de caméras un système de vision hybride. L'utilisation de ce type de capteur fournit une vision globale de la scène à l'aide de la caméra omnidirectionnelle tandis que l'usage de la caméra mécanisée permet une fovéation, c'est-à-dire l'acquisition de détails, sur une région d'intérêt détectée depuis l'image panoramique.Les travaux présentés dans ce manuscrit ont pour objet, à la fois de permettre le suivi d'une cible à l'aide de notre banc de caméras mais également de permettre une reconstruction 3D par stéréoscopie hybride de l'environnement nous permettant d'étudier le déplacement du robot équipé du capteur
The primary goal of this thesis is to elaborate a binocular vision system using two different types of camera. The system studied here is composed of one omnidirectional camera coupled with a PTZ camera. This heterogeneous association of cameras having different characteristics is called a hybrid stereo-vision system. The couple composed of these two cameras combines the advantages given by both of them, that is to say a large field of view and an accurate vision of a particular Region of interest with an adjustable level of details using the zoom. In this thesis, we are presenting multiple contributions in visual tracking using omnidirectional sensors, PTZ camera self calibration, hybrid vision system calibration and structure from motion using a hybrid stereo-vision system
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Scandaroli, Glauco Garcia. "Fusion de données visuo-inertielles pour l'estimation de pose et l'autocalibrage." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00861858.

Повний текст джерела
Анотація:
Les systèmes multi-capteurs exploitent les complémentarités des différentes sources sensorielles. Par exemple, le capteur visuo-inertiel permet d'estimer la pose à haute fréquence et avec une grande précision. Les méthodes de vision mesurent la pose à basse fréquence mais limitent la dérive causée par l'intégration des données inertielles. Les centrales inertielles mesurent des incréments du déplacement à haute fréquence, ce que permet d'initialiser la vision et de compenser la perte momentanée de celle-ci. Cette thèse analyse deux aspects du problème. Premièrement, nous étudions les méthodes visuelles directes pour l'estimation de pose, et proposons une nouvelle technique basée sur la corrélation entre des images et la pondération des régions et des pixels, avec une optimisation inspirée de la méthode de Newton. Notre technique estime la pose même en présence des changements d'illumination extrêmes. Deuxièmement, nous étudions la fusion des données a partir de la théorie de la commande. Nos résultats principaux concernent le développement d'observateurs pour l'estimation de pose, biais IMU et l'autocalibrage. Nous analysons la dynamique de rotation d'un point de vue non linéaire, et fournissons des observateurs stables dans le groupe des matrices de rotation. Par ailleurs, nous analysons la dynamique de translation en tant que système linéaire variant dans le temps, et proposons des conditions d'observabilité uniforme. Les analyses d'observabilité nous permettent de démontrer la stabilité uniforme des observateurs proposés. La méthode visuelle et les observateurs sont testés et comparés aux méthodes classiques avec des simulations et de vraies données visuo-inertielles.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Pessel, Nathalie. "Auto-calibrage d'une caméra en milieu sous-marin." Montpellier 2, 2003. http://www.theses.fr/2003MON20156.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Andersson, Elin. "Thermal Impact of a Calibrated Stereo Camera Rig." Thesis, Linköpings universitet, Datorseende, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-129636.

Повний текст джерела
Анотація:
Measurements performed from stereo reconstruction can be obtained with a high accuracy with correct calibrated cameras. A stereo camera rig mounted in an outdoor environment is exposed to temperature changes, which has an impact of the calibration of the cameras. The aim of the master thesis was to investigate the thermal impact of a calibrated stereo camera rig. This was performed by placing a stereo rig in a temperature chamber and collect data of a calibration board at different temperatures. Data was collected with two different cameras and lensesand used for calibration of the stereo camera rig for different scenarios. The obtained parameters were plotted and analyzed. The result from the master thesis gives that the thermal variation has an impact of the accuracy of the calibrated stereo camera rig. A calibration obtained in one temperature can not be used for a different temperature without a degradation of the accuracy. The plotted parameters from the calibration had a high noise level due to problems with the calibration methods, and no visible trend from temperature changes could be seen.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Zhou, Han, and 周晗. "Intelligent video surveillance in a calibrated multi-camera system." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2011. http://hub.hku.hk/bib/B45989217.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Jethwa, Manish 1976. "Efficient volumetric reconstruction from multiple calibrated cameras." Thesis, Massachusetts Institute of Technology, 2004. http://hdl.handle.net/1721.1/30163.

Повний текст джерела
Анотація:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, February 2005.
Includes bibliographical references (p. 137-142).
The automatic reconstruction of large scale 3-D models from real images is of significant value to the field of computer vision in the understanding of images. As a consequence, many techniques have emerged to perform scene reconstruction from calibrated images where the position and orientation of the camera are known. Feature based methods using points and lines have enjoyed much success and have been shown to be robust against noise and changing illumination conditions. The models produced by these techniques however, can often appear crude when untextured due to the sparse set of points from which they are created. Other reconstruction methods, such as volumetric techniques, use image pixel intensities rather than features, reconstructing the scene as small volumetric units called voxels. The direct use of pixel values in the images has restricted current methods to operating on scenes with static illumination conditions. Creating a volumetric representation of the scene may also require millions of interdependent voxels which must be efficiently processed. This has limited most techniques to constrained camera locations and small indoor scenes. The primary goal of this thesis is to perform efficient voxel-based reconstruction of urban environments using a large set of pose-instrumented images. In addition to the 3- D scene reconstruction, the algorithm will also generate estimates of surface reflectance and illumination. Designing an algorithm that operates in a discretized 3-D scene space allows for the recovery of intrinsic scene color and for the integration of visibility constraints, while avoiding the pitfalls of image based feature correspondence.
(cont.) The algorithm demonstrates how in principle it is possible to reduce computational effort over more naive methods. The algorithm is intended to perform the reconstruction of large scale 3-D models from controlled imagery without human intervention.
by Manish Jethwa.
Ph.D.
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Li, Dong. "Thermal image analysis using calibrated video imaging." Diss., Columbia, Mo. : University of Missouri-Columbia, 2006. http://hdl.handle.net/10355/4455.

Повний текст джерела
Анотація:
Thesis (Ph.D.)--University of Missouri-Columbia, 2006.
The entire dissertation/thesis text is included in the research.pdf file; the official abstract appears in the short.pdf file (which also appears in the research.pdf); a non-technical general description, or public abstract, appears in the public.pdf file. Title from title screen of research.pdf file (viewed on April 23, 2009) Includes bibliographical references.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Gaffney, Stephen Grant. "Markerless deformation capture of hoverfly wings using multiple calibrated cameras." Thesis, Heriot-Watt University, 2013. http://hdl.handle.net/10399/2694.

Повний текст джерела
Анотація:
This thesis introduces an algorithm for the automated deformation capture of hoverfly wings from multiple camera image sequences. The algorithm is capable of extracting dense surface measurements, without the aid of fiducial markers, over an arbitrary number of wingbeats of hovering flight and requires limited manual initialisation. A novel motion prediction method, called the ‘normalised stroke model’, makes use of the similarity of adjacent wing strokes to predict wing keypoint locations, which are then iteratively refined in a stereo image registration procedure. Outlier removal, wing fitting and further refinement using independently reconstructed boundary points complete the algorithm. It was tested on two hovering data sets, as well as a challenging flight manoeuvre. By comparing the 3-d positions of keypoints extracted from these surfaces with those resulting from manual identification, the accuracy of the algorithm is shown to approach that of a fully manual approach. In particular, half of the algorithm-extracted keypoints were within 0.17mm of manually identified keypoints, approximately equal to the error of the manual identification process. This algorithm is unique among purely image based flapping flight studies in the level of automation it achieves, and its generality would make it applicable to wing tracking of other insects.
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Dornaika, Fadi. "Contributions à l'intégration vision robotique : calibrage, localisation et asservissement." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005044.

Повний текст джерела
Анотація:
Cette thèse concerne principalement l'intégration des fonctionnalités d'un système de vision avec celles d'un système robotique. Cette intégration apporte beaucoup d'avantages pour l'interaction d'un robot avec son environnement. Dans un premier temps, nous nous intéressons aux aspects de modélisation. Deux sujets liés à cette modélisation ont été traités :
i) le calibrage caméra/pince et
ii) la localisation caméra/objet.
Pour le premier, nous proposons une méthode de calibrage non linéaire qui s'avère robuste en présence des erreurs de mesure ; pour le second, nous proposons une méthode linéaire très rapide et bien adaptée aux applications temps-réel puisqu'elle est basée sur des approximations successives par une projection para-perspective.
Dans un deuxième temps, nous nous intéressons au contrôle visuel de robots. Nous adaptons la méthode "commande référencée capteur" à une caméra indépendante du robot asservi. De plus, dans le cas d'un positionnement relatif, nous montrons que le calcul de la position de référence ne dépend pas de l'estimation explicite des paramètres intrinsèques et extrinsèques de la caméra. Pour une tâche donnée, le problème de la commande peut alors se traduire sous la forme d'une régulation d'une erreur dans l'image. Nous montrons que la localisation temps-réel caméra/robot améliore le comportement dynamique de l'asservissement. Cette méthode de contrôle a été expérimentée dans la réalisation de tâches de saisie avec un robot manipulateur à six degrés de liberté. Toutes les méthodes proposées sont validées avec des mesures réelles et simulées.
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Ouellet, Jean-Nicolas. "Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27802/27802.pdf.

Повний текст джерела
Анотація:
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de \textit{plusieurs images}, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Pumrin, Suree. "A framework for dynamically measuring mean vehicle speed using un-calibrated cameras /." Thesis, Connect to this title online; UW restricted, 2002. http://hdl.handle.net/1773/6090.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Tollefsen, Cristina Dawn Spanu. "Comparison of video and CCD cameras in online portal imagers calibrated for dosimetry." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ57587.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Su, Po-Chang. "REAL-TIME CAPTURE AND RENDERING OF PHYSICAL SCENE WITH AN EFFICIENTLY CALIBRATED RGB-D CAMERA NETWORK." UKnowledge, 2017. https://uknowledge.uky.edu/ece_etds/110.

Повний текст джерела
Анотація:
From object tracking to 3D reconstruction, RGB-Depth (RGB-D) camera networks play an increasingly important role in many vision and graphics applications. With the recent explosive growth of Augmented Reality (AR) and Virtual Reality (VR) platforms, utilizing camera RGB-D camera networks to capture and render dynamic physical space can enhance immersive experiences for users. To maximize coverage and minimize costs, practical applications often use a small number of RGB-D cameras and sparsely place them around the environment for data capturing. While sparse color camera networks have been studied for decades, the problems of extrinsic calibration of and rendering with sparse RGB-D camera networks are less well understood. Extrinsic calibration is difficult because of inappropriate RGB-D camera models and lack of shared scene features. Due to the significant camera noise and sparse coverage of the scene, the quality of rendering 3D point clouds is much lower compared with synthetic models. Adding virtual objects whose rendering depend on the physical environment such as those with reflective surfaces further complicate the rendering pipeline. In this dissertation, I propose novel solutions to tackle these challenges faced by RGB-D camera systems. First, I propose a novel extrinsic calibration algorithm that can accurately and rapidly calibrate the geometric relationships across an arbitrary number of RGB-D cameras on a network. Second, I propose a novel rendering pipeline that can capture and render, in real-time, dynamic scenes in the presence of arbitrary-shaped reflective virtual objects. Third, I have demonstrated a teleportation application that uses the proposed system to merge two geographically separated 3D captured scenes into the same reconstructed environment. To provide a fast and robust calibration for a sparse RGB-D camera network, first, the correspondences between different camera views are established by using a spherical calibration object. We show that this approach outperforms other techniques based on planar calibration objects. Second, instead of modeling camera extrinsic using rigid transformation that is optimal only for pinhole cameras, different view transformation functions including rigid transformation, polynomial transformation, and manifold regression are systematically tested to determine the most robust mapping that generalizes well to unseen data. Third, the celebrated bundle adjustment procedure is reformulated to minimize the global 3D projection error so as to fine-tune the initial estimates. To achieve a realistic mirror rendering, a robust eye detector is used to identify the viewer's 3D location and render the reflective scene accordingly. The limited field of view obtained from a single camera is overcome by our calibrated RGB-D camera network system that is scalable to capture an arbitrarily large environment. The rendering is accomplished by raytracing light rays from the viewpoint to the scene reflected by the virtual curved surface. To the best of our knowledge, the proposed system is the first to render reflective dynamic scenes from real 3D data in large environments. Our scalable client-server architecture is computationally efficient - the calibration of a camera network system, including data capture, can be done in minutes using only commodity PCs.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

FERREIRA, MAURICIO AZEVEDO LAGE. "SURVEILLANCE AND MONITORING OF VEHICLES IN REAL TIME AT HIGHWAYS WITH NON-CALIBRATED CAMERAS." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2008. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=12971@1.

Повний текст джерела
Анотація:
Sistemas computadorizados de vigilância de veículos têm despertado grande interesse devido à demanda para automatizar tarefas que atualmente são realizadas por operadores humanos. Porém, para realizar estas tarefas é preciso resolver alguns problemas clássicos de visão computacional como sombras, oclusões e variação de iluminação. Este trabalho propõe algoritmos em tempo real para máquinas de baixo custo com o objetivo de rastrear, classificar e determinar a velocidade de cada veículo de uma rodovia.
Vehicle surveillance computerized systems have grown great interest due to the automatizing duties demand, which recently executed by computer vision like shadows, occlusion and light variation have to be solved. The present work proposes real time algorithms for low cost machines focused on tracking, classifying and determining each vehicle`s speed on a highway.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Champleboux, Guillaume. "Utilisation de fonctions splines pour la mise au point d'un capteur tridimensionnel sans contact : quelques applications médicales." Grenoble 1, 1991. http://www.theses.fr/1991GRE10075.

Повний текст джерела
Анотація:
Cette thèse est relative au calibrage d'un capteur tridimensionnel, constitué d'une caméra et d'un plan laser, en vue d'une utilisation en robotique chirurgicale. Le calibrage est défini comme la détermination de la fonction de transfert des données d'entrée en données de sortie du capteur. Ce calibrage est primordial compte tenu de la précision désirée qui doit être inférieure au millimètre dans un cube de 250 mm de côté. Après avoir étudié et testé les techniques de calibrage existantes, nous montrons leur insuffisance par rapport au critère de précision, insuffisance due aux distorsions optique et électronique de la caméra. Pour résoudre ce problème, nous utilisons des fonctions splines pour la détermination de la fonction de transfert. Ceci nous amène à établir une méthode d'approximation de fonction de type Z=F(X, Y), par des fonctions splines bicubiques pseudo plaque mince. Cette méthode d'approximation présente l'avantage de pouvoir être utilisée dans le cas de données réparties irrégulièrement. Elle est utilisée avec succès pour le calibrage, et permet d'atteindre la précision requise. Quelques applications médicales du capteur sont proposées
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Cornou, Sébastien. "Modélisation interactive sous contraintes à partir d'images non-calibrées : Application à la reconstruction tridimensionnelle de bâtiments." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2004. http://tel.archives-ouvertes.fr/tel-00008292.

Повний текст джерела
Анотація:
Dans le cadre de cette thèse, nous avons étudié la modélisation d'objets structurés au moyen d'images non-calibrées. Un objet structuré est un objet présentant des particularités qui permettent de le d´ecrire facilement à partir d'éléments géométriques ou physiques (une boite, un cylindre, la tour Eiffel,...). A l'opposé, un objet non structuré est, a priori, difficile à définir à partir de quelques règles simples (le ciel, la mer,...). Notre objectif était de proposer une solution permettant à un utilisateur de modéliser un objet en utilisant à la fois ses connaissances sur la scène observée et des informations extraites d'une séquence d'images obtenues au moyen d'un appareil photographique. Afin de garantir la souplesse d'utilisation et de permettre l'usage d'images dont les caractéristiques de prise de vue sont totalement inconnues (images récupérées sur internet, archives,...), nous souhaitions inscrire notre approche dans le cadre de la reconstruction non-calibrée. Le r´esultat de nos travaux est une méthode interactive complète de modélisation à partir d'images non-calibrées. La méthode développée dans cette thèse permet à l'utilisateur de modéliser tout d'abord l'objet au moyen de contraintes, puis de retrouver son modèle tridimensionnel à partir de la localisation des sommets 3D dans les différentes images disponibles. Pour parvenir à ce résultat, le système effectue un ajustement de faisceaux qui estime les dimensions de la sc`ene observée sans requérir l'initialisation de la pose des images.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Calvet, Lilian. "Méthodes de reconstruction tridimensionnelle intégrant des points cycliques : application au suivi d'une caméra." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2014. http://tel.archives-ouvertes.fr/tel-00981191.

Повний текст джерела
Анотація:
Cette thèse traite de la reconstruction tridimensionnelle d'une scène rigide à partir d'une collection de photographies numériques, dites vues. Le problème traité est connu sous le nom du "calcul de la structure et du mouvement" (structure-and/from-motion) qui consiste à "expliquer" des trajectoires de points dits d'intérêt au sein de la collection de vues par un certain mouvement de l'appareil (dont sa trajectoire) et des caractéristiques géométriques tridimensionnelles de la scène. Dans ce travail, nous proposons les fondements théoriques pour étendre certaines méthodes de calcul de la structure et du mouvement afin d'intégrer comme données d'entrée, des points d'intérêt réels et des points d'intérêt complexes, et plus précisément des images de points cycliques. Pour tout plan projectif, les points cycliques forment une paire de points complexes conjugués qui, par leur invariance par les similitudes planes, munissent le plan projectif d'une structure euclidienne. Nous introduisons la notion de marqueurs cycliques qui sont des marqueurs plans permettant de calculer sans ambiguïté les images des points cycliques de leur plan de support dans toute vue. Une propriété de ces marqueurs, en plus d'être très "riches" en information euclidienne, est que leurs images peuvent être appariées même si les marqueurs sont disposés arbitrairement sur des plans parallèles, grâce à l'invariance des points cycliques. Nous montrons comment utiliser cette propriété dans le calcul projectif de la structure et du mouvement via une technique matricielle de réduction de rang, dite de factorisation, de la matrice des données correspondant aux images de points réels, complexes et/ou cycliques. Un sous-problème critique abordé dans le calcul de la structure et du mouvement est celui de l'auto-calibrage de l'appareil, problème consistant à transformer un calcul projectif en un calcul euclidien. Nous expliquons comment utiliser l'information euclidienne fournie par les images des points cycliques dans l'algorithme d'auto-calibrage opérant dans l'espace projectif dual et fondé sur des équations linéaires. L'ensemble de ces contributions est finalement utilisé pour une application de suivi automatique de caméra utilisant des marqueurs formés par des couronnes concentriques (appelés CCTags), où il s'agit de calculer le mouvement tridimensionnel de la caméra dans la scène à partir d'une séquence vidéo. Ce type d'application est généralement utilisé dans l'industrie du cinéma ou de la télévision afin de produire des effets spéciaux. Le suivi de caméra proposé dans ce travail a été conçu pour proposer le meilleur compromis possible entre flexibilité d'utilisation et précision des résultats obtenus.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Walker, Timothy A. "Testing camera trap density estimates from the spatial capture model and calibrated capture rate indices against kangaroo rat (Dipodomys spp.) live trapping data." Thesis, San Jose State University, 2016. http://pqdtopen.proquest.com/#viewpdf?dispub=10169614.

Повний текст джерела
Анотація:

Camera trapping studies often focus on estimating population density, which is critical for managing wild populations. Density estimators typically require unique markers such as stripe patterns to identify individuals but most animals do not have such markings. The spatial capture model (SC model; Chandler & Royle, 2013) estimates density without individual identification but lacks sufficient field testing. Here, both the SC model and calibrated capture rate indices were compared against ten sessions of live trapping data on kangaroo rats (Dipodomys spp). These camera and live trapping data were combined in a joint-likelihood model to further compare the two methods. From these comparisons, the factors governing the SC model?s success were scrutinized. Additionally, a method for estimating missed captures was developed and tested here. Regressions comparing live trapping density to the SC model density and capture rate were significant only for the capture rate comparison. Missed image rate had a significant relationship with ambient nighttime temperatures but only marginally improved the capture rate index calibration. Results showed the SC model was highly sensitive to deviations from its movement model, producing potentially misleading results. The model may be effective only when movement assumptions hold. Several factors such as camera coverage area, microhabitat, and burrow locations could be incorporated into the SC model density estimation process to improve precision and inference.

Стилі APA, Harvard, Vancouver, ISO та ін.
23

Laveau, Stéphane. "Géométrie d'un système de N caméras : théorie, estimation et applications." Phd thesis, Ecole Polytechnique X, 1996. http://tel.archives-ouvertes.fr/tel-00267257.

Повний текст джерела
Анотація:
Cette thèse développe une approche basée sur la géométrie projective pour analyser et traiter des séquences d'images obtenues avec une caméra mobile. Les dérivations et démonstrations sont faites sans supposer qu'une information a priori est disponible sur les images, que ce soit sur le mouvement de la caméra ou sur leurs paramètres intrinsèques, comme la distance focale ou les points principaux. Il peut
même s'agir de caméras différentes. La seule hypothèse est que la scène est rigide.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Salazar-Garibay, Adan. "Une approche directe pour l'auto-calibration des caméras catadioptriques omnidirectionnelles centrales." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00645697.

Повний текст джерела
Анотація:
Calibrer une camera permet de déterminer les propriétés géométriques qui permettent le processus de formation d'une image. Ce processus a un objectif principal, identifier les coordonnées 3D de chaque points de l'image dans un nouveau référenciel d'image dans lequel les coordonnées de l'image ainsi obtenue en deux dimensions seront exprimées dans une nouvelle unité le pixel. Cette méthode est nécessaire pour restaurer des informations 3D. On peut préciser aussi ,qu'il est indispensable de connaitre la translation et la rotation du capteur vidéo en garantissant l'alignement avec tous les autre paramètres systèmes externes , et aussi évidemment les autres paramètres intrinsèques internes tels que l'optique, longueur des focales, facteurs de magnitude, emplacement des axes d'alignement optique et rétine. Alors en prenant en compte correctement de toutes les conditions précédentes on peut dire de la problématique calibration camera quel est un sujet déjà bien maitrisée, et en cela l'on sait déjà qu'aucunes méthodes ne permet aujourd'hui une robuste auto calibration temps réel et ceci pour chacune des cameras omnidirectionnelles existantes. Les techniques d'auto calibration existantes essaye de calibrer a partir de point de correspondances, de lignes, de cercles, ou encore de spécifiques mouvements de camera. Cependant des résultats intéressants peuvent être obtenus, même si l'autocalibration souffre encore de certaines limites, comme un faible nombre de points fonctionnels, la difficulté de détection des lignes, d'indésirables effets de mouvements camera et de la difficulté de prise en compte de certains types de miroirs. Par conséquence l'objectif de cette thèse est la proposition d'un nouvel algorithme qui permettrait d'éliminer certaines de ces limitations permettant ainsi son utilisation dans différentes applications robotiques ou encore dans d'autre environnement applicatifs pratiques ou l'autocalibration n'a pas encore pénétrée mais ou l'on y trouverait un intérêt certain; cet algorithme fonctionne directement avec l'intensité lumineuse de l'image, en faisant le minimum de d'hypothèses concernant la structure de la scène qui est visualisée et reste valide et utilisable pour tous les systèmes catadioptriques centraux et de fait ne nécessite donc aucunes connaissances antérieures des paramètres intrinsèques et externes. Ainsi, un partie de cette thèse est centrée sur la formalisation de l'unicité de la solution pour résoudre les problèmes de calibration des cameras centrales catadioptrique omnidirectionnelles. Pour la majeur partie de ce travail sur la calibration camera omnidirectionnel, il a été observe ceci, dans le cas de miroirs non planaires, deux images acquises de différents points de vus son suffisantes pour effectuer la calibration de la camera. Cependant, à notre connaissance, aucune démonstration théorique de l'unicité de la solution n'existe. Dans cette thèse le problème de calibration est formalise par l'utilisation d'un model unifie valide pour tous les cameras centrales catadioptrique omnidirectionnelles. Il peut être utilisé avec de cameras traditionnelles quand le miroir planaire est considéré. Il a été aussi montre que l'unicité de la solution peut être dérivé a partir d'un système non linéaire d'équations. Cependant étant donne la complexité pour résoudre ce système d'équations dans un cas général ,cette thèse fait apparaitre l'unicité de solution dans le cas d'un miroir parabolique.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Ea, Thomas. "Etude d'un capteur d'images stéréoscopique panoramique couleur : conception, réalisation, validation et intégration." Paris 6, 2001. http://www.theses.fr/2001PA066421.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Glauco, Garcia Scandaroli. "Fusion de données visuo-inertielles pour l'estimation de pose et l'autocalibrage." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00849384.

Повний текст джерела
Анотація:
Les systèmes multi-capteurs exploitent les complémentarités des différentes sources sensorielles. Par example, le capteur visuo-inertiel permet d'estimer la pose à haute fréquence et avec une grande précision. Les méthodes de vision mesurent la pose à basse fréquence mais limitent la dérive causée par l'intégration des données inertielles. Les centrales inertielles mesurent des incréments du déplacement à haute fréquence, ce que permet d'initialiser la vision et de compenser la perte momentanée de celle-ci. Cette thèse analyse deux aspects du problème. Premièrement, nous étudions les méthodes visuelles directes pour l'estimation de pose, et proposons une nouvelle technique basée sur la corrélation entre des images et la pondération des régions et des pixels, avec une optimisation inspirée de la méthode de Newton. Notre technique estime la pose même en présence des changements d'illumination extrêmes. Deuxièmement, nous étudions la fusion des données a partir de la théorie de la commande. Nos résultats principaux concernent le développement d'observateurs pour l'estimation de pose, biais IMU et l'autocalibrage. Nous analysons la dynamique de rotation d'un point de vue nonlinéaire, et fournissons des observateurs stables dans le groupe des matrices de rotation. Par ailleurs, nous analysons la dynamique de translation en tant que système linéaire variant dans le temps, et proposons des conditions d'observabilité uniforme. Les analyses d'observabilité nous permettent de démontrer la stabilité uniforme des observateurs proposés. La méthode visuelle et les observateurs sont testés et comparés aux méthodes classiques avec des simulations et de vraies données visuo-inertielles.
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Hernández, Esteban Carlos. "Modélisation d'objets 3D par fusion silhouettes-stéréo à partir de séquences d'images en rotation non calibrées." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000862.

Повний текст джерела
Анотація:
Nous présentons une nouvelle approche pour la modélisation d'objets 3D de haute qualité à partir de séquences d'images en rotation partiellement calibrées. L'algorithme est capable: de calibrer la caméra (la pose et la longueur focale), de reconstruire la géométrie 3D et de créer une carte de texture. Par rapport à d'autres méthodes plus classiques, le calibrage est réalisé à partir d'un ensemble de silhouettes comme seule source d'information. Nous développons le concept de cohérence d'un ensemble de silhouettes généré par un objet 3D. Nous discutons d'abord la notion de cohérence de silhouettes et définissons un critère pratique pour l'estimer. Ce critère dépend à la fois des silhouettes et des paramètres des caméras qui les ont générées. Ces paramètres peuvent être estimés pour le problème de modélisation 3D en maximisant la cohérence globale des silhouettes. La méthode de reconstruction 3D est fondée sur l'utilisation d'un modèle déformable classique, qui définit le cadre dans lequel nous pouvons fusionner l'information de la texture et des silhouettes pour reconstruire la géométrie 3D. Cette fusion est accomplie en définissant deux forces basées sur les images: une force définie par la texture et une autre définie par les silhouettes. La force de texture est calculée en deux étapes: une approche corrélation multi-stéréo par décision majoritaire, et une étape de diffusion du vecteur gradient (GVF). En raison de la haute résolution de l'approche par décision majoritaire, une version multi-résolution du GVF a été développée. En ce qui concerne la force des silhouettes, une nouvelle formulation de la contrainte des silhouettes est dérivée. Elle fournit une manière robuste d'intégrer les silhouettes dans l'évolution du modèle déformable. A la fin de l'évolution, cette force fixe les contours générateurs du modèle 3D. Finalement, une carte de texture est calculée à partir des images originales et du modèle 3D reconstruit.
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Славков, Віктор Миколайович. "Розробка цифрового фотографічного методу теплового контролю металів при високих температурах". Thesis, НТУ "ХПІ", 2015. http://repository.kpi.kharkov.ua/handle/KhPI-Press/17036.

Повний текст джерела
Анотація:
Дисертація на здобуття наукового ступеня кандидата технічних наук за спеціальністю 05.11.13 - прилади і методи контролю та визначення складу речовин. Національний технічний університет "Харківський політехнічний інститут", Харків, 2015 р. Дисертацію присвячено розробці методу теплового контролю металів при температурах понад 600 °С із використанням, у якості детектора теплового випромінювання, цифрового фотоапарата. На основі встановлених теоретичних положень методу розроблені програмні алгоритми обробки цифрових зображень, що дозволили: провести процедуру калібрування цифрового фотоапарата у діапазоні яскравісних температур 500…1800 °С та встановити калібрувальні залежності у вигляді математичних рівнянь; здійснити тепловий контроль металевих пластин, об'ємних металевих зразків та встановити присутні в них дефекти; вирішити додаткові задачі теплового контролю металів, а саме встановити значення питомої масової теплоємності металу; моделювати рівномірні температурні поля на поверхні металевих пластин; встановити розподілення коефіцієнта теплового випромінювання поверхні металевих пластин.
Thesis for granting the Degree of Candidate of Technical sciences in speciality 05.11.13 - devices and methods of testing and materials composition determination. - National Technical University "Kharkiv Politechnical Institute", Kharkiv, 2015. The dissertation is devoted to development of a thermal control metals method at temperatures above 600 °C using as thermal radiation detector, digital camera. On the basis of the established method of theoretical positions were developed software algorithms for digital image processing that allowed: to carry a digital camera calibration brightness temperature in the range of 500...1800 °C and set the calibration curve in the form of mathematical equations; perform thermal control of metal plates, bulk metallic samples and established the presence of defects; to solve additional tasks of thermal metals control, namely to establish the value of the specific heat capacity of the metal mass; simulate uniform temperature field on the surface of the metal plates; determine the distribution coefficient of thermal radiation from the metal plates surface.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Славков, Віктор Миколайович. "Розробка цифрового фотографічного методу теплового контролю металів при високих температурах". Thesis, НТУ "ХПІ", 2015. http://repository.kpi.kharkov.ua/handle/KhPI-Press/17002.

Повний текст джерела
Анотація:
Дисертація на здобуття наукового ступеня кандидата технічних наук за спеціальністю 05.11.13 - прилади і методи контролю та визначення складу речовин. Національний технічний університет "Харківський політехнічний інститут", Харків, 2015 р. Дисертацію присвячено розробці методу теплового контролю металів при температурах понад 600 °С із використанням, у якості детектора теплового випромінювання, цифрового фотоапарата. На основі встановлених теоретичних положень методу розроблені програмні алгоритми обробки цифрових зображень, що дозволили: провести процедуру калібрування цифрового фотоапарата у діапазоні яскравісних температур 500…1800 °С та встановити калібрувальні залежності у вигляді математичних рівнянь; здійснити тепловий контроль металевих пластин, об'ємних металевих зразків та встановити присутні в них дефекти; вирішити додаткові задачі теплового контролю металів, а саме встановити значення питомої масової теплоємності металу; моделювати рівномірні температурні поля на поверхні металевих пластин; встановити розподілення коефіцієнта теплового випромінювання поверхні металевих пластин.
Thesis for granting the Degree of Candidate of Technical sciences in speciality 05.11.13 - devices and methods of testing and materials composition determination. - National Technical University "Kharkiv Politechnical Institute", Kharkiv, 2015. The dissertation is devoted to development of a thermal control metals method at temperatures above 600 °C using as thermal radiation detector, digital camera. On the basis of the established method of theoretical positions were developed software algorithms for digital image processing that allowed: to carry a digital camera calibration brightness temperature in the range of 500...1800 °C and set the calibration curve in the form of mathematical equations; perform thermal control of metal plates, bulk metallic samples and established the presence of defects; to solve additional tasks of thermal metals control, namely to establish the value of the specific heat capacity of the metal mass; simulate uniform temperature field on the surface of the metal plates; determine the distribution coefficient of thermal radiation from the metal plates surface.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Nogueira, Marcelo Borges. "Posicionamento e movimenta??o de um rob? human?ide utilizando imagens de uma c?mera m?vel externa." Universidade Federal do Rio Grande do Norte, 2005. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15350.

Повний текст джерела
Анотація:
Made available in DSpace on 2014-12-17T14:55:48Z (GMT). No. of bitstreams: 1 MarceloBN.pdf: 1368278 bytes, checksum: e9f6ea9d9353cb33144a3fc036bd57dc (MD5) Previous issue date: 2005-12-20
Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior
This work proposes a method to localize a simple humanoid robot, without embedded sensors, using images taken from an extern camera and image processing techniques. Once the robot is localized relative to the camera, supposing we know the position of the camera relative to the world, we can compute the position of the robot relative to the world. To make the camera move in the work space, we will use another mobile robot with wheels, which has a precise locating system, and will place the camera on it. Once the humanoid is localized in the work space, we can take the necessary actions to move it. Simultaneously, we will move the camera robot, so it will take good images of the humanoid. The mainly contributions of this work are: the idea of using another mobile robot to aid the navigation of a humanoid robot without and advanced embedded electronics; chosing of the intrinsic and extrinsic calibration methods appropriated to the task, especially in the real time part; and the collaborative algorithm of simultaneous navigation of the robots
Este trabalho prop?e um m?todo para localizar um rob? human?ide simples, sem sensores embarcados, utilizando imagens obtidas por uma c?mera externa e t?cnicas de processamento de imagens. Localizando o rob? em rela??o ? c?mera, e supondo conhecida a posi??o da c?mera em rela??o ao mundo, podemos determinar a posi??o do rob? human?ide em rela??o ao mundo. Para que a posi??o da c?mera n?o seja fixa, utilizamos um outro rob? m?vel com rodas, dotado de um sistema de localiza??o preciso, sobre o qual ser? colocada a c?mera. Uma vez que o human?ide seja localizado no ambiente de trabalho, podemos tomar as a??es necess?rias para realizar a sua movimenta??o. Simultaneamente, movimentamos o rob? que cont?m a c?mera, de forma que este tenha uma boa visada do human?ide. As principais contribui??es deste trabalho s?o: a id?ia de utilizar um segundo rob? m?vel para auxiliar a movimenta??o de um rob? human?ide sem eletr?nica embarcada avan?ada; a escolha de m?todos de calibra??o dos par?metros intr?nsecos e extr?nsecos da c?mera apropriados para a aplica??o em quest?o, especialmente na parte em tempo real; e o algoritmo colaborativo de movimenta??o simult?nea dos dois rob?s
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Santiago, Gutemberg Santos. "Navega??o cooperativa de um rob? human?ide e um rob? com rodas usando informa??o visual." Universidade Federal do Rio Grande do Norte, 2008. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15197.

Повний текст джерела
Анотація:
Made available in DSpace on 2014-12-17T14:55:06Z (GMT). No. of bitstreams: 1 GutembergSS.pdf: 569123 bytes, checksum: 6f85b5ee47010d2d331986f17689304b (MD5) Previous issue date: 2008-05-30
This work presents a cooperative navigation systemof a humanoid robot and a wheeled robot using visual information, aiming to navigate the non-instrumented humanoid robot using information obtained from the instrumented wheeled robot. Despite the humanoid not having sensors to its navigation, it can be remotely controlled by infra-red signals. Thus, the wheeled robot can control the humanoid positioning itself behind him and, through visual information, find it and navigate it. The location of the wheeled robot is obtained merging information from odometers and from landmarks detection, using the Extended Kalman Filter. The marks are visually detected, and their features are extracted by image processing. Parameters obtained by image processing are directly used in the Extended Kalman Filter. Thus, while the wheeled robot locates and navigates the humanoid, it also simultaneously calculates its own location and maps the environment (SLAM). The navigation is done through heuristic algorithms based on errors between the actual and desired pose for each robot. The main contribution of this work was the implementation of a cooperative navigation system for two robots based on visual information, which can be extended to other robotic applications, as the ability to control robots without interfering on its hardware, or attaching communication devices
Este trabalho apresenta um sistema de navega??o cooperativa de um rob? human?ide e um rob? com rodas usando informa??o visual, com o objetivo de efetuar a navega??o do rob? human?ide n?o instrumentado utilizando-se das informa??es obtidas do rob? com rodas instrumentado. Apesar do human?ide n?o possuir sensores para sua navega??o, pode ser remotamente controlado por sinal infravermelho. Assim, o rob? com rodas pode controlar o human?ide posicionando-se atr?s dele e, atrav?s de informa??o visual, localiz?-lo e naveg?-lo. A localiza??o do rob? com rodas ? obtida fundindo-se informa??es de odometria e detec??o de marcos utilizando o filtro de Kalman estendido. Os marcos s?o detectados visualmente, e suas caracter?sticas s?o extra?das pelo o processamento da imagem. As informa??es das caracter?sticas da imagem s?o utilizadas diretamente no filtro de Kalman estendido. Assim, enquanto o rob? com rodas localiza e navega o human?ide, realiza tamb?m sua localiza??o e o mapeamento do ambiente simultaneamente (SLAM). A navega??o ? realizada atrav?s de algoritmos heur?sticos baseados nos erros de pose entre a pose dos rob?s e a pose desejada para cada rob?. A principal contribui??o desse trabalho foi a implementa??o de um sistema de navega??o cooperativa entre dois rob?s baseados em informa??o visual, que pode ser estendido para outras aplica??es rob?ticas, dado a possibilidade de se controlar rob?s sem interferir em seu hardware, ou acoplar dispositivos de comunica??o
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Li, You. "Stereo vision and LIDAR based Dynamic Occupancy Grid mapping : Application to scenes analysis for Intelligent Vehicles." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-00982325.

Повний текст джерела
Анотація:
Intelligent vehicles require perception systems with high performances. Usually, perception system consists of multiple sensors, such as cameras, 2D/3D lidars or radars. The works presented in this Ph.D thesis concern several topics on cameras and lidar based perception for understanding dynamic scenes in urban environments. The works are composed of four parts.In the first part, a stereo vision based visual odometry is proposed by comparing several different approaches of image feature detection and feature points association. After a comprehensive comparison, a suitable feature detector and a feature points association approach is selected to achieve better performance of stereo visual odometry. In the second part, independent moving objects are detected and segmented by the results of visual odometry and U-disparity image. Then, spatial features are extracted by a kernel-PCA method and classifiers are trained based on these spatial features to recognize different types of common moving objects e.g. pedestrians, vehicles and cyclists. In the third part, an extrinsic calibration method between a 2D lidar and a stereoscopic system is proposed. This method solves the problem of extrinsic calibration by placing a common calibration chessboard in front of the stereoscopic system and 2D lidar, and by considering the geometric relationship between the cameras of the stereoscopic system. This calibration method integrates also sensor noise models and Mahalanobis distance optimization for more robustness. At last, dynamic occupancy grid mapping is proposed by 3D reconstruction of the environment, obtained from stereovision and Lidar data separately and then conjointly. An improved occupancy grid map is obtained by estimating the pitch angle between ground plane and the stereoscopic system. The moving object detection and recognition results (from the first and second parts) are incorporated into the occupancy grid map to augment the semantic meanings. All the proposed and developed methods are tested and evaluated with simulation and real data acquired by the experimental platform "intelligent vehicle SetCar" of IRTES-SET laboratory.
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Brousseau, Pierre-André. "Calibrage de caméra fisheye et estimation de la profondeur pour la navigation autonome." Thèse, 2019. http://hdl.handle.net/1866/23782.

Повний текст джерела
Анотація:
Ce mémoire s’intéresse aux problématiques du calibrage de caméras grand angles et de l’estimation de la profondeur à partir d’une caméra unique, immobile ou en mouvement. Les travaux effectués se situent à l’intersection entre la vision 3D classique et les nouvelles méthodes par apprentissage profond dans le domaine de la navigation autonome. Ils visent à permettre la détection d’obstacles par un drone en mouvement muni d’une seule caméra à très grand angle de vue. D’abord, une nouvelle méthode de calibrage est proposée pour les caméras fisheyes à très grand angle de vue par calibrage planaire à correspondances denses obtenues par lumière structurée qui peuvent être modélisée par un ensemble de caméras génériques virtuelles centrales. Nous démontrons que cette approche permet de modéliser directement des caméras axiales, et validons sur des données synthétiques et réelles. Ensuite, une méthode est proposée pour estimer la profondeur à partir d’une seule image, à partir uniquement des indices de profondeurs forts, les jonctions en T. Nous démontrons que les méthodes par apprentissage profond sont susceptibles d’apprendre les biais de leurs ensembles de données et présentent des lacunes d’invariance. Finalement, nous proposons une méthode pour estimer la profondeur à partir d’une caméra en mouvement libre à 6 degrés de liberté. Ceci passe par le calibrage de la caméra fisheye sur le drone, l’odométrie visuelle et la résolution de la profondeur. Les méthodes proposées permettent la détection d’obstacle pour un drone.
This thesis focuses on the problems of calibrating wide-angle cameras and estimating depth from a single camera, stationary or in motion. The work carried out is at the intersection between traditional 3D vision and new deep learning methods in the field of autonomous navigation. They are designed to allow the detection of obstacles by a moving drone equipped with a single camera with a very wide field of view. First, a new calibration method is proposed for fisheye cameras with very large field of view by planar calibration with dense correspondences obtained by structured light that can be modelled by a set of central virtual generic cameras. We demonstrate that this approach allows direct modeling of axial cameras, and validate it on synthetic and real data. Then, a method is proposed to estimate the depth from a single image, using only the strong depth cues, the T-junctions. We demonstrate that deep learning methods are likely to learn from the biases of their data sets and have weaknesses to invariance. Finally, we propose a method to estimate the depth from a camera in free 6 DoF motion. This involves calibrating the fisheye camera on the drone, visual odometry and depth resolution. The proposed methods allow the detection of obstacles for a drone.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Draréni, Jamil. "Exploitation de contraintes photométriques et géométriques en vision : application au suivi, au calibrage et à la reconstruction." Thèse, 2010. http://hdl.handle.net/1866/4868.

Повний текст джерела
Анотація:
Cette thèse s’intéresse à trois problèmes fondamentaux de la vision par ordinateur qui sont le suivi vidéo, le calibrage et la reconstruction 3D. Les approches proposées sont strictement basées sur des contraintes photométriques et géométriques présentent dans des images 2D. Le suivi de mouvement se fait généralement dans un flux vidéo et consiste à suivre un objet d’intérêt identifié par l’usager. Nous reprenons une des méthodes les plus robustes à cet effet et l’améliorons de sorte à prendre en charge, en plus de ses translations, les rotations qu’effectue l’objet d’intérêt. Par la suite nous nous attelons au calibrage de caméras; un autre problème fondamental en vision. Il s’agit là, d’estimer des paramètres intrinsèques qui décrivent la projection d’entités 3D dans une image plane. Plus précisément, nous proposons des algorithmes de calibrage plan pour les cam ́eras linéaires (pushbroom) et les vidéo projecteurs lesquels ́etaient, jusque là, calibrés de façon laborieuse. Le troisième volet de cette thèse sera consacré à la reconstruction 3D par ombres projetée. À moins de connaissance à-priori sur le contenu de la scène, cette technique est intrinsèquement ambigüe. Nous proposons une méthode pour réduire cette ambiguïté en exploitant le fait que les spots de lumières sont souvent visibles dans la caméra.
The topic of this thesis revolves around three fundamental problems in computer vision; namely, video tracking, camera calibration and shape recovery. The proposed methods are solely based on photometric and geometric constraints found in the images. Video tracking, usually performed on a video sequence, consists in tracking a region of interest, selected manually by an operator. We extend a successful tracking method by adding the ability to estimate the orientation of the tracked object. Furthermore, we consider another fundamental problem in computer vision: cali- bration. Here we tackle the problem of calibrating linear cameras (a.k.a: pushbroom) and video projectors. For the former one we propose a convenient plane-based cali- bration algorithm and for the latter, a calibration algorithm that does not require a physical grid and a planar auto-calibration algorithm. Finally, we pointed our third research direction toward shape reconstruction using coplanar shadows. This technique is known to suffer from a bas-relief ambiguity if no extra information on the scene or light source is provided. We propose a simple method to reduce this ambiguity from four to a single parameter. We achieve this by taking into account the visibility of the light spots in the camera.
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Liang, Chun-An, and 梁俊安. "Visual Odometry Algorithms Using Ground Image Sequence from Calibrated Camera and Cooperated Un-Calibrated Cameras." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/26484143101880697575.

Повний текст джерела
Анотація:
碩士
國立臺灣大學
電機工程學研究所
100
For mobile robots, ego-motion estimation and trajectory reconstruction are two important issues for localizing themselves in the operational environments. Numerous kinds of sensors and techniques are used in robot localization, such as wheel encoder, IMU, GPS, LRF, and visual sensors. Comparing to other sensors, visual sensors could obtain information-rich environment data and usually with low prices, which are good options for robot localization. This thesis proposes two visual odometry methods using ground image sequences. In the first method, image sequence is captured from a well-calibrated monocular camera. Due to the geometrical relationship between ground and camera can be reconstructed by the calibration results, the image scenes could be back projected to the ground and thus get the real-world positions. The proposed visual odometry method with calibrated camera includes mainly three steps. In the first step, the positional correspondences between two consecutive images are established by feature extraction and matching. Then, the extracted features are projected onto the ground plane. Finally, the robot motion is estimated with a Gaussian kernel density voting outlier rejection scheme. For the second method, two un-calibrated cameras mounted on the lateral sides of one robot are used. The intrinsic and extrinsic parameters of cameras are assumed to be unknown and, hence, it is hard to obtain the geometric relationship between image coordinate and world coordinate. To overcome this problem, only a small part of image frame is used to extract the motion quantities for reducing the effect of radial distortion and simplifying the problem as an ordinary wheel odometry problem. The proposed method with un-calibrated cameras includes four steps. In the first step, multiple motion vectors are extracted by block matching. Then, based on the spatial and temporal distribution of motion vectors, unreliable vectors are then determined and deleted. The vectors would be normalized to the desired form to fit the motion model in the next step. Finally, the motion in each frame is calculated and the trajectory is also reconstructed. Both two methods are tested by simulations and real-environment experiments.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Amjadi, Faezeh. "Comparing of radial and tangencial geometric for cylindric panorama." Thèse, 2016. http://hdl.handle.net/1866/18753.

Повний текст джерела
Анотація:
Cameras generally have a field of view only large enough to capture a portion of their surroundings. The goal of immersion is to replace many of your senses with virtual ones, so that the virtual environment will feel as real as possible. Panoramic cameras are used to capture the entire 360°view, also known as panoramic images.Virtual reality makes use of these panoramic images to provide a more immersive experience compared to seeing images on a 2D screen. This thesis, which is in the field of Computer vision, focuses on establishing a multi-camera geometry to generate a cylindrical panorama image and successfully implementing it with the cheapest cameras possible. The specific goal of this project is to propose the cameras geometry which will decrease artifact problems related to parallax in the panorama image. We present a new approach of cylindrical panoramic images from multiple cameras which its setup has cameras placed evenly around a circle. Instead of looking outward, which is the traditional ”radial” configuration, we propose to make the optical axes tangent to the camera circle, a ”tangential” configuration. Beside an analysis and comparison of radial and tangential geometries, we provide an experimental setup with real panoramas obtained in realistic conditions
Les caméras ont généralement un champ de vision à peine assez grand pour capturer partie de leur environnement. L’objectif de l’immersion est de remplacer virtuellement un grand nombre de sens, de sorte que l’environnement virtuel soit perçu comme le plus réel possible. Une caméra panoramique est utilisée pour capturer l’ensemble d’une vue 360°, également connue sous le nom d’image panoramique. La réalité virtuelle fait usage de ces images panoramiques pour fournir une expérience plus immersive par rapport aux images sur un écran 2D. Cette thèse, qui est dans le domaine de la vision par ordinateur, s’intéresse à la création d’une géométrie multi-caméras pour générer une image cylindrique panoramique et vise une mise en œuvre avec les caméras moins chères possibles. L’objectif spécifique de ce projet est de proposer une géométrie de caméra qui va diminuer au maximum les problèmes d’artefacts liés au parallaxe présent dans l’image panoramique. Nous présentons une nouvelle approche de capture des images panoramiques cylindriques à partir de plusieurs caméras disposées uniformément autour d’un cercle. Au lieu de regarder vers l’extérieur, ce qui est la configuration traditionnelle ”radiale”, nous proposons de rendre les axes optiques tangents au cercle des caméras, une configuration ”tangentielle”. Outre une analyse et la comparaison des géométries radiales et tangentielles, nous fournissons un montage expérimental avec de vrais panoramas obtenus dans des conditions réalistes
Стилі APA, Harvard, Vancouver, ISO та ін.
37

邱裕翔. "Using Laser Level to Calibrate a Fish-eye Camera." Thesis, 2015. http://ndltd.ncl.edu.tw/handle/48916188557184387141.

Повний текст джерела
Анотація:
碩士
國立交通大學
多媒體工程研究所
103
Recently, fish-eye cameras are used in many applications such as around vehicle monitoring system and parking guidance. A fish-eye camera can support very large field of view, up to 180 degrees or more, and is very suitable for above applications for large areas. However, an image captured by fish-eye camera impaired with severe radial distortion. Distorted images are very unnatural for human to perceive. Therefore, it is an important issue to eliminate the radial distortion of a fish-eye image. In this thesis, a novel fish-eye camera calibration method based on an off-the-shelf laser level is proposed, which estimates the principal point and measures the data for correcting radial distortion by using the relationship between laser lines projected by a laser level and imaging geometry of a camera. Finally, the geometric relation between a fish-eye image and perspective projection can be applied to de-warp the fish-eye image.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Gouiaa, Rafik. "Reconnaissance de postures humaines par fusion de la silhouette et de l'ombre dans l'infrarouge." Thèse, 2017. http://hdl.handle.net/1866/19538.

Повний текст джерела
Анотація:
Les systèmes multicaméras utilisés pour la vidéosurveillance sont complexes, lourds et coûteux. Pour la surveillance d'une pièce, serait-il possible de les remplacer par un système beaucoup plus simple utilisant une seule caméra et une ou plusieurs sources lumineuses en misant sur les ombres projetées pour obtenir de l'information 3D ? Malgré les résultats intéressants offerts par les systèmes multicaméras, la quantité d'information à traiter et leur complexité limitent grandement leur usage. Dans le même contexte, nous proposons de simplifier ces systèmes en remplaçant une caméra par une source lumineuse. En effet, une source lumineuse peut être vue comme une caméra qui génère une image d'ombre révélant l'objet qui bloque la lumière. Notre système sera composé par une seule caméra et une ou plusieurs sources lumineuses infrarouges (invisibles à l'oeil). Malgré les difficultés prévues quant à l'extraction de l'ombre et la déformation et l'occultation de l'ombre par des obstacles (murs, meubles...), les gains sont multiples en utilisant notre système. En effet, on peut éviter ainsi les problèmes de synchronisation et de calibrage de caméras et réduire le coût en remplaçant des caméras par de simples sources infrarouges. Nous proposons deux approches différentes pour automatiser la reconnaissance de postures humaines. La première approche reconstruit la forme 3D d'une personne pour faire la reconnaissance de la posture en utilisant des descripteurs de forme. La deuxième approche combine directement l'information 2D (ombre+silhouette) pour faire la reconnaissance de postures. Scientifiquement, nous cherchons à prouver que l'information offerte par une silhouette et l'ombre générée par une source lumineuse est suffisante pour permettre la reconnaissance de postures humaines élémentaires (p.ex. debout, assise, couchée, penchée, etc.). Le système proposé peut être utilisé pour la vidéosurveillance d'endroits non encombrés tels qu'un corridor dans une résidence de personnes âgées (pour la détection des chutes p. ex.) ou d'une compagnie (pour la sécurité). Son faible coût permettrait un plus grand usage de la vidéosurveillance au bénéfice de la société. Au niveau scientifique, la démonstration théorique et pratique d'un tel système est originale et offre un grand potentiel pour la vidéosurveillance.
Human posture recognition (HPR) from video sequences is one of the major active research areas of computer vision. It is one step of the global process of human activity recognition (HAR) for behaviors analysis. Many HPR application systems have been developed including video surveillance, human-machine interaction, and the video retrieval. Generally, applications related to HPR can be achieved using mainly two approaches : single camera or multi-cameras. Despite the interesting performance achieved by multi-camera systems, their complexity and the huge information to be processed greatly limit their widespread use for HPR. The main goal of this thesis is to simplify the multi-camera system by replacing a camera by a light source. In fact, a light source can be seen as a virtual camera, which generates a cast shadow image representing the silhouette of the person that blocks the light. Our system will consist of a single camera and one or more infrared light sources. Despite some technical difficulties in cast shadow segmentation and cast shadow deformation because of walls and furniture, different advantages can be achieved by using our system. Indeed, we can avoid the synchronization and calibration problems of multiple cameras, reducing the cost of the system and the amount of processed data by replacing a camera by one light source. We introduce two different approaches in order to automatically recognize human postures. The first approach directly combines the person’s silhouette and cast shadow information, and uses 2D silhouette descriptor in order to extract discriminative features useful for HPR. The second approach is inspired from the shape from silhouette technique to reconstruct the visual hull of the posture using a set of cast shadow silhouettes, and extract informative features through 3D shape descriptor. Using these approaches, our goal is to prove the utility of the combination of person’s silhouette and cast shadow information for recognizing elementary human postures (stand, bend, crouch, fall,...) The proposed system can be used for video surveillance of uncluttered areas such as a corridor in a senior’s residence (for example, for the detection of falls) or in a company (for security). Its low cost may allow greater use of video surveillance for the benefit of society.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Mellor, J. P. "Automatically Recovering Geometry and Texture from Large Sets of Calibrated Images." 1999. http://hdl.handle.net/1721.1/6766.

Повний текст джерела
Анотація:
Three-dimensional models which contain both geometry and texture have numerous applications such as urban planning, physical simulation, and virtual environments. A major focus of computer vision (and recently graphics) research is the automatic recovery of three-dimensional models from two-dimensional images. After many years of research this goal is yet to be achieved. Most practical modeling systems require substantial human input and unlike automatic systems are not scalable. This thesis presents a novel method for automatically recovering dense surface patches using large sets (1000's) of calibrated images taken from arbitrary positions within the scene. Physical instruments, such as Global Positioning System (GPS), inertial sensors, and inclinometers, are used to estimate the position and orientation of each image. Essentially, the problem is to find corresponding points in each of the images. Once a correspondence has been established, calculating its three-dimensional position is simply a matter of geometry. Long baseline images improve the accuracy. Short baseline images and the large number of images greatly simplifies the correspondence problem. The initial stage of the algorithm is completely local and scales linearly with the number of images. Subsequent stages are global in nature, exploit geometric constraints, and scale quadratically with the complexity of the underlying scene. We describe techniques for: 1) detecting and localizing surface patches; 2) refining camera calibration estimates and rejecting false positive surfels; and 3) grouping surface patches into surfaces and growing the surface along a two-dimensional manifold. We also discuss a method for producing high quality, textured three-dimensional models from these surfaces. Some of the most important characteristics of this approach are that it: 1) uses and refines noisy calibration estimates; 2) compensates for large variations in illumination; 3) tolerates significant soft occlusion (e.g. tree branches); and 4) associates, at a fundamental level, an estimated normal (i.e. no frontal-planar assumption) and texture with each surface patch.
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Cheng, Chiao-Wen, and 鄭喬文. "Accurate Camera Pose Estimation from the Noisy Calibrated Stereo Images Based on LMedS Initial Results." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/11036736402283126661.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Drareni, Jamil. "Exploitation de contraintes photométriques et géométriques en vision. Application au suivi, au calibrage et à la reconstruction." Phd thesis, 2010. http://tel.archives-ouvertes.fr/tel-00593514.

Повний текст джерела
Анотація:
Cette thèse s'intéresse à trois problèmes fondamentaux de la vision par ordinateur qui sont le suivi vidéo, le calibrage et la reconstruction 3D. Les approches proposées sont strictement basées sur des contraintes photométriques et géométriques présentent dans des images 2D. Le suivi de mouvement se fait généralement dans un flux vidéo et consiste à suivre un objet d'intérêt identifié par l'usager. Nous reprenons une des méthodes les plus robustes à cet effet et l'améliorons de sorte à prendre en charge, en plus de ses translations, les rotations qu'effectue l'objet d'intérêt. Par la suite nous nous attelons au calibrage de caméras; un autre problème fondamental en vision. Il s'agit là, d'estimer des paramètres intrinsèques qui décrivent la projection d'entités 3D dans une image plane. Plus précisément, nous proposons des algorithmes de calibrage plan pour les caméras linéaires (pushbroom) et les vidéo projecteurs lesquels étaient, jusque là, calibrés de fa¸con laborieuse. Le troisième volet de cette thèse sera consacré à la reconstruction 3D par ombres projetée. À moins de connaissance à priori sur le contenu de la scène, cette technique est intrinsèquement ambigüe. Nous proposons une méthode pour réduire cette ambiguïté en exploitant le fait que les spots de lumières sont souvent visibles dans la caméra.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Morat, Julien. "Vision stéréoscopique par ordinateur pour la détection et le suivi de cibles pour une application automobile." Phd thesis, 2008. http://tel.archives-ouvertes.fr/tel-00343675.

Повний текст джерела
Анотація:
La complexité croissante de l'environnement routier et le souci d'amélioration de la sécurité routière expliquent l'intérêt que porte les constructeurs automobiles aux travaux sur l'aide à la conduite. De nombreux systèmes équipent déjà les véhicules de la rue. Alors que la perception de l'état du véhicule (vitesse, position, etc.) est maîtrisée, celle de l'environnement reste une tache difficile.
Parmi tous les capteurs susceptibles de percevoir la complexité d'un environnement urbain, la stéréo-vision offre à la fois des performances intéressantes, une spectre d'applications très larges (détection de piéton, suivi de véhicules, détection de ligne blanches, etc.) et un prix compétitif. Pour ces raisons, Renault s'attache à identifier et résoudre les problèmes liés à l'implantation d'un tel système dans un véhicule de série, notamment pour une application de suivi de véhicules.
La première problématique à maîtriser concerne le calibrage du système
stéréoscopique. En effet, pour que le système puisse fournir une mesure, ses paramètres doivent être correctement estimés, y compris sous des conditions extrêmes (forte températures, chocs, vibrations, ...). Nous présentons donc une méthodologie d'évaluation permettant de répondre aux interrogations sur les dégradations de performances du système en fonction du calibrage.
Le deuxième problème concerne la détection des obstacles. La méthode mis au point utilise d'une originale les propriétés des rectifications. Le résultat est une segmentation de la route et des obstacles.
La dernière problématique concerne la calcul de vitesse des obstacles. Une grande majorité des approches de la littérature approxime la vitesse d'un obstacle à partir de ses positions successives. Lors de ce calcul, l'accumulation des incertitudes rendent cette estimation extrêmement bruitée. Notre approche combine efficacement les atouts de la stéréo-vision et du flux optique afin d'obtenir directement une mesure de vitesse 3-D robuste et précise.
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Siegmund, Bernward. "Untersuchung der Geschosswirkung in der sehr frühen Phase unter besonderer Berücksichtigung der Hochgeschwindigkeitsmunition." Doctoral thesis, 2006. http://hdl.handle.net/11858/00-1735-0000-0006-B33E-8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії