Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Estimation de correspondances.

Dissertationen zum Thema „Estimation de correspondances“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-17 Dissertationen für die Forschung zum Thema "Estimation de correspondances" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Rocco, Ignacio. „Neural architectures for estimating correspondences between images“. Electronic Thesis or Diss., Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLE060.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est de développer des méthodes pour la mise en correspondance entre de paires d'images dans des situations difficiles, telles que des changements extrêmes d'éclairage, des scènes avec peu de texture ou comprenant des structures répétitives, ou la mise en correspondance entre parties d'objets qui appartiennent à la même classe mais qui peuvent présenter de grandes différences d'apparence intra-classe. Nos contributions sont les suivantes : (i) nous développons une approche entraînable pour l'alignement paramétrique d'images en utilisant un modèle de réseau siamois, (ii) nous concevons une approche d'entraînement faiblement supervisée, qui permet l'entraînement à partir de paires d'images réelles annotées seulement au niveau des paires d'images, (iii) nous proposons les Réseaux de Consensus de Voisinage qui peuvent être utilisés pour estimer de manière robuste les correspondances pour des tâches où des correspondances discrètes sont requises et (iv) nous développons une variante plus efficace qui peut réduire les besoins en mémoire et le temps d'exécution des Réseaux de Consensus de Voisinage par un facteur dix
The goal of this thesis is to develop methods for establishing correspondences between pairs of images in challenging situations, such as extreme illumination changes, scenes with little texture or with repetitive structures, and matching parts of objects which belong to the same class, but which may have large intra-class appearance differences. In summary, our contributions are the following: (i) we develop a trainable approach for parametric image alignment by means of a siamese network model, (ii) we devise a weakly-supervised training approach, which allow training from real image pairs having only annotation at the level of image-pairs, (iii) we propose the Neighbourhood Consensus Networks which can be used to robustly estimate correspondences in tasks where discrete correspondences are required, and (iv) because the dense formulation of the Neighbourhood Consensus Networks is memory and computationally intensive, we develop a more efficient variant that can reduce the memory requirements and run-time by more than ten times
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Collier, Olivier. „Méthodes statistiques pour la mise en correspondance de descripteurs“. Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00904686.

Der volle Inhalt der Quelle
Annotation:
De nombreuses applications, en vision par ordinateur ou en médecine notamment,ont pour but d'identifier des similarités entre plusieurs images ou signaux. On peut alors détecter des objets, les suivre, ou recouper des prises de vue. Dans tous les cas, les procédures algorithmiques qui traitent les images utilisent une sélection de points-clefs qu'elles essayent ensuite de mettre en correspondance par paire. Elles calculent pour chaque point un descripteur qui le caractérise, le discrimine des autres. Parmi toutes les procédures possibles,la plus utilisée aujourd'hui est SIFT, qui sélectionne les points-clefs, calcule des descripteurs et propose un critère de mise en correspondance globale. Dans une première partie, nous tentons d'améliorer cet algorithme en changeant le descripteur original qui nécessite de trouver l'argument du maximum d'un histogramme : en effet, son calcul est statistiquement instable. Nous devons alors également changer le critère de mise en correspondance de deux descripteurs. Il en résulte un problème de test non paramétrique dans lequel à la fois l'hypothèse nulle et alternative sont composites, et même non paramétriques. Nous utilisons le test du rapport de vraisemblance généralisé afin d'exhiber des procédures de test consistantes, et proposons une étude minimax du problème. Dans une seconde partie, nous nous intéressons à l'optimalité d'une procédure globale de mise en correspondance. Nous énonçons un modèle statistique dans lequel des descripteurs sont présents dans un certain ordre dans une première image, et dans un autre dans une seconde image. La mise en correspondance revient alors à l'estimation d'une permutation. Nous donnons un critère d'optimalité au sens minimax pour les estimateurs. Nous utilisons en particulier la vraisemblance afin de trouver plusieurs estimateurs consistants, et même optimaux sous certaines conditions. Enfin, nous nous sommes intéressés à des aspects pratiques en montrant que nos estimateurs étaient calculables en temps raisonnable, ce qui nous a permis ensuite d'illustrer la hiérarchie de nos estimateurs par des simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Bachalany, Yara. „Estimation du mouvement 3D d’une sphère de surface réfléchissante“. Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10142/document.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de cette thèse, nous proposons une solution au problème de l'estimation du mouvement 3D d'objets dont la surface est réfléchissante, lequel est très complexe quand leurs caractéristiques géométriques à elles seules ne permettent pas de définir des indices caractéristiques d'un mouvement. Nous avons focalisé notre étude sur le cas particulier de la sphère, dont la parfaite symétrie complique au maximum le problème d'estimation du mouvement.En effet, lorsqu'une sphère est affectée d'un mouvement de rotation pure autour d'un de ses axes, ses contours extérieurs apparaissent statiques. Ces derniersn'apportent donc pas d'information utilisable par le système pour estimer le mouvement. Nous proposons donc une approche se basant sur la texture dans un schéma de mise en correspondance 3D/2D modifié. Ici, cette information est exploitée différemment si elle provient d'une composante spéculaire ou diffuse.Enfin, nous démontrons que la propriété réfléchissante de la surface n'est plus considérée comme un obstacle mais que au contraire, cette propriété procure une information supplémentaire sur le mouvement recherché
Recovering 3D motion of reflective objects in image sequences is still a cumbersome problem for computer vision. One common approach is to track geometric features of the object such as contours and edges since they are rather insensitive to light reflections. However, such basic features fail to recover the actual 3D motion in some cases. For example, the external contour of a sphere rotating about one of its axes remains static in the image. In thisthesis, we propose a new approach to 3D motion recovery of a reflective sphere visible in an image sequence.Instead of tracking only geometric features, our technique makes use of texture information in a slightly modified image alignment method. Unlike in classical image alignment methods, texture information is processed differently whether it comes from a diffuse or a specular light component.Using this technique, we show that motion estimation is not only possible when dealing with reflective objects, but also that specular components can offer information about the 3D motion. Finally, we present some results obtained from the analysis of image sequences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Narasimha, Ramya. „Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés“. Grenoble, 2010. http://www.theses.fr/2010GRENM053.

Der volle Inhalt der Quelle
Annotation:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Liu, Zhe. „Robust, refined and selective matching for accurate camera pose estimation“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1020/document.

Der volle Inhalt der Quelle
Annotation:
Grâce aux progrès récents en photogrammétrie, il est désormais possible de reconstruire automatiquement un modèle d'une scène 3D à partir de photographies ou d'une vidéo. La reconstruction est réalisée en plusieurs étapes. Tout d'abord, on détecte des traits saillants (features) dans chaque image, souvent des points mais plus généralement des régions. Puis on cherche à les mettre en correspondance entre images. On utilise ensuite les traits communs à deux images pour déterminer la pose (positions et orientations) relative des images. Puis les poses sont mises dans un même repère global et la position des traits saillants dans l'espace est reconstruite (structure from motion). Enfin, un modèle 3D dense de la scène peut être estimé. La détection de traits saillants, leur appariement, ainsi que l'estimation de la position des caméras, jouent des rôles primordiaux dans la chaîne de reconstruction 3D. Des imprécisions ou des erreurs dans ces étapes ont un impact majeur sur la précision et la robustesse de la reconstruction de la scène entière. Dans cette thèse, nous nous intéressons à l'amélioration des méthodes pour établir la correspondance entre régions caractéristiques et pour les sélectionner lors de l'estimation des poses de caméras, afin de rendre les résultats de reconstruction plus robustes et plus précis. Nous introduisons tout d'abord une contrainte photométrique pour une paire de correspondances (VLD) au sein d'une même image, qui est plus fiable que les contraintes purement géométriques. Puis, nous proposons une méthode semi-locale (K-VLD) pour la mise en correspondance, basée sur cette contrainte photométrique. Nous démontrons que notre méthode est très robuste pour des scènes rigides, mais aussi non-rigides ou répétitives, et qu'elle permet d'améliorer la robustesse et la précision de méthodes d'estimation de poses, notamment basées sur RANSAC. Puis, pour améliorer l'estimation de la position des caméras, nous analysons la précision des reconstructions et des estimations de pose en fonction du nombre et de la qualité des correspondances. Nous en dérivons une formule expérimentale caractérisant la relation ``qualité contre quantité''. Sur cette base, nous proposons une méthode pour sélectionner un sous-ensemble des correspondances de meilleure qualité de façon à obtenir une très haute précision en estimation de poses. Nous cherchons aussi raffiner la précision de localisation des points en correspondance. Pour cela, nous développons une extension de la méthode de mise en correspondance aux moindres carrés (LSM) en introduisant un échantillonnage irrégulier et une exploration des échelles d'images. Nous montrons que le raffinement et la sélection de correspondances agissent indépendamment pour améliorer la reconstruction. Combinées, les deux méthodes produisent des résultats encore meilleurs
With the recent progress in photogrammetry, it is now possible to automatically reconstruct a model of a 3D scene from pictures or videos. The model is reconstructed in several stages. First, salient features (often points, but more generally regions) are detected in each image. Second, features that are common in images pairs are matched. Third, matched features are used to estimate the relative pose (position and orientation) of images. The global poses are then computed as well as the 3D location of these features (structure from motion). Finally, a dense 3D model can be estimated. The detection of salient features, their matching, as well as the estimation of camera poses play a crucial role in the reconstruction process. Inaccuracies or errors in these stages have a major impact on the accuracy and robustness of reconstruction for the entire scene. In this thesis, we propose better methods for feature matching and feature selection, which improve the robustness and accuracy of existing methods for camera position estimation. We first introduce a photometric pairwise constraint for feature matches (VLD), which is more reliable than geometric constraints. Then we propose a semi-local matching approach (K-VLD) using this photometric match constraint. We show that our method is very robust, not only for rigid scenes but also for non-rigid and repetitive scenes, which can improve the robustness and accuracy of pose estimation methods, such as based on RANSAC. To improve the accuracy in camera position estimation, we study the accuracy of reconstruction and pose estimation in function of the number and quality of matches. We experimentally derive a “quantity vs. quality” relation. Using this relation, we propose a method to select a subset of good matches to produce highly accurate pose estimations. We also aim at refining match position. For this, we propose an improvement of least square matching (LSM) using an irregular sampling grid and image scale exploration. We show that match refinement and match selection independently improve the reconstruction results, and when combined together, the results are further improved
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Maatouk, Hassan. „Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications“. Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0791/document.

Der volle Inhalt der Quelle
Annotation:
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée
This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Narasimha, Ramya. „Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés“. Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM056.

Der volle Inhalt der Quelle
Annotation:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Royer, Emilien. „Etude de la confusion des descripteurs locaux de points d'intérêt : application à la mise en correspondance d'images de documents“. Thesis, Toulon, 2017. http://www.theses.fr/2017TOUL0009/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail s’inscrit dans une tentative de liaison entre la communauté classique de la Vision par ordinateur et la communauté du traitement d’images de documents, analyse être connaissance (DAR). Plus particulièrement, nous abordons la question des détecteurs de points d’intérêts et des descripteurs locaux dans une image. Ceux-ci ayant été conçus pour des images issues du monde réel, ils ne sont pas adaptés aux problématiques issues du document dont les images présentent des caractéristiques visuelles différentes.Notre approche se base sur la résolution du problème de la confusion entre les descripteurs,ceux-ci perdant leur pouvoir discriminant. Notre principale contribution est un algorithme de réduction de la confusion potentiellement présente dans un ensemble de vecteurs caractéristiques d’une même image, ceci par une approche probabiliste en filtrant les vecteurs fortement confusifs. Une telle conception nous permet d’appliquer des algorithmes d’extractions de descripteurs sans avoir à les modifier ce qui constitue une passerelle entre ces deux mondes
This work tries to establish a bridge between the field of classical computer vision and document analysis and recognition. Specificaly, we tackle the issue of keypoints detection and associated local features computation in the image. These are not suitable for document images since they were designed for real-world images which have different visual characteristic. Our approach is based on resolving the issue of reducing the confusion between feature vectors since they usually lose their discriminant power with document images. Our main contribution is an algorithm reducing the confusion between local features by filtering the ones which present a high confusing risk. We are tackling this by using tools from probability theory. Such a method allows us to apply features extraction algorithms without having to modify them, thus establishing a bridge between these two worlds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Meyer, Samantha. „L'estimation numérique dans les apprentissages mathématiques : rôles et interêts de la mise en correspondance des représentations numériques au niveau développemental, éducatif et rééducatif“. Thesis, Lille 3, 2015. http://www.theses.fr/2015LIL30011/document.

Der volle Inhalt der Quelle
Annotation:
La compréhension du développement des habiletés numériques est un enjeu majeur pour guider les pratiques éducatives et rééducatives des jeunes enfants. Les résultats des enquêtes nationales et internationales sont unanimes à cet égard : le niveau moyen des élèves en mathématiques a chuté depuis 2003 (PISA, 2012). L’hypothèse la plus avancée à l’heure actuelle est celle d’un déficit des correspondances entre les codes numériques et le « sens des nombres » (Dehaene, 1997). Le « sens du nombre » est contenu dans la représentation analogique et non verbale des nombres. Dans le présent travail, nous cherchons à démontrer que l’estimation numérique permet ainsi d’exercer les correspondances entre les codes afin de donner du sens aux représentations symboliques écrites et orales. Malgré l’importance accordée aujourd’hui au processus d’estimation, son rôle dans les apprentissages doit encore être précisé afin d’orienter et de mieux guider les pratiques (ré)éducatives (Dehaene et Cohen, 2001 ; Von Aster et Shalev 2007). A travers trois études expérimentales, nous explorons ainsi le rôle de l’estimation numérique dans les apprentissages d’un point de vue éducatif (auprès d’enfants scolarisés en CP) et d’un point de vue rééducatif (dans le syndrome génétique de la trisomie 21). L’acquisition des différentes représentations et des relations complexes qui s’établissent entre-elles est également analysée et discutée pour mieux préciser les modèles de traitements du nombres et du calcul actuels. Les résultats obtenus corroborent ainsi une hypothèse de spiralité des apprentissages symboliques
Understanding the development of numerical abilities is a major issue to guide educative and reeducative practices in mathematics in young children. National and international investigations has demonstrated that the mathematical skills of students has decrease since 2003 (PISA, 2012). Nowadays, weak capacities to map numerical representations and therefore a defective « number sense » (Dehaene, 1997 ; 2001) is the most supported hypothesis. The « number sense » is contained into the analogical and non-verbal representation of number. In this work, we consider that numerical estimation is a good way to exercise this mapping and give sense to verbal and written numerical symbols. Indeed, the role of numerical estimation needs to be specified in order to lead the (re)educative practices (Dehaene, 1997 ; 2001 ; Von Aster et Shalev). During three experimental studies, we explore the role of numerical estimation, in an educative and reeducative way in children in first year and children with down’s syndrom. The acquisition of numerical representations and the complex relations they have are also explored and discussed through a spirality hypothesis in order to better specify actual models of number treatment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Souid-Miled, Wided. „Mise en correspondance stéréoscopique par approches variationnelles convexes ; application à la détection d'obstacles routiers“. Phd thesis, Université Paris-Est, 2007. http://tel.archives-ouvertes.fr/tel-00738363.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la mise en correspondance stéréoscopique ainsi que sur son application à la détection des obstacles routiers à partir d'un système de vision stéréoscopique. La mise en correspondance est une étape cruciale dans la reconstruction de la structure tridimensionnelle de la scène observée. Elle consiste à retrouver les pixels homologues dans deux images prises de deux points de vue différents, et se ramène à un problème d'estimation d'un champ de disparité. La première partie de ma thèse a porté sur l'estimation de la disparité, dans le cadre d'une approche ensembliste, en minimisant une fonction objective convexe sur l'intersection d'ensembles convexes, construits à partir des connaissances a priori et des observations. Dans la plupart des applications de stéréovision, le champ de disparité doit être lisse dans les zones homogènes et les zones faiblement texturées. L'une de nos contributions a consisté à proposer différentes contraintes de régularisation satisfaisant cette propriété. Pour résoudre le problème d'optimisation considéré, nous utilisons un algorithme efficace itératif par bloc. La deuxième partie traite du problème d'estimation de la disparité en présence de changements d'illumination dans la scène observée. Nous considérons pour cela un modèle d'illumination multiplicatif qui permet de compenser les variations spatiales de luminosité de la scène. Enfin, dans la troisième partie, nous appliquons notre méthode d'estimation de la disparité robuste aux variations d'illumination pour la détection des obstacles routiers.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lemaitre, Cedric. „DEFINITION ET ETUDE DES PERFORMANCES D'UN DETECTEUR DE STRUCTURES CURVILINEAIRES. APPLICATION A LA STEREOSCOPIE ET LA DETECTION D'OBJETS FILAIRES“. Phd thesis, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00603569.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce manuscrit s'inscrivent dans le contexte de la mise en correspondance. En effet nous montrons l'intérêt de régions spécifiques, les régions curvilinéaires, dans le cadre des applications de mise en correspondances. Dans cette optique, nous avons développé un détecteur spécifique aux régions curvilinéaires. De plus afin de réaliser la mise en correspondance des régions, un descripteur spécifique aux régions curvilinéaires a été développé. L'évaluation du descripteur a été réalisée en deux temps. Dans un premier temps, nous avons étudié et comparé les performances de segmentation du détecteur de régions curvilinéaires, notamment dans le contexte de la segmentation des veines de la rétine. Dans un second temps, les performances du détecteur (associés à son descripteur spécifique) en termes de mise en correspondance ont été évaluées. Cette étude a été menée en utilisant la méthode de K. Mikolajczyk, cette méthodologie permet d'obtenir à la fois les performances globales du détecteur mais de le comparer avec des détecteurs dit " standards ". Les applications présentées au sein de ce manuscrit sont, elles aussi, de deux types. Dans un premier temps, nous présentons deux applications de segmentation qui sont : la détection de cordon de colle sur les culasses de moteur avant assemblage ainsi que la détection de l'aorte dans des coupes sagittales effectuées à l'aide d'imageur IRM. Le second type d'application est les applications de mise en correspondances. Dans ce champ d'application, nous avons proposés l'estimation automatique d'homographie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Dellagi, Hatem. „Estimations paramétrique et non paramétrique des données manquantes : application à l'agro-climatologie“. Paris 6, 1994. http://www.theses.fr/1994PA066546.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail nous proposons deux méthodes d'estimation des données manquantes. Dans le cas de l'estimation paramétrique et afin de résoudre le problème par la prévision, nous exploitons l'estimateur décale (E. D) de la partie autorégressive d'un modèle ARMA scalaire pour estimer la matrice de covariance In dont la consistance forte est prouvée sous des conditions ayant l'avantage de s'exprimer en fonction des trajectoires et identifier les coefficients de la partie moyenne mobile et la variance du bruit blanc. En analyse des correspondances et afin d'estimer les données manquantes d'un tableau de correspondance, le problème se résout complètement dans le cas d'une seule donnée manquante. L'existence est prouvée dans le cas où il y en a plusieurs, par contre l'unicité étant délicate, une combinaison linéaire entre les données manquantes est obtenue à partir de la formule de la trace dont la minimisation assure l'homogénéité du tableau de correspondance, nous établirons sous le même critère la reconstitution d'une donnée d'origine à partir du codage linéaire par morceaux
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Las, Vergnas Olivier. „Contribution à l'étude des estimations historiques des éclats des étoiles brillantes par des analyses multidimensionnelles“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 1990. http://tel.archives-ouvertes.fr/tel-00655551.

Der volle Inhalt der Quelle
Annotation:
Les étoiles brillantes ont-elles des variations séculaires d'éclat ? Bien que plusieurs astronomes aient étudié ce sujet au cours des siècles écoulés, aucune réponse satisfaisante n'y a été donnée. Il y a un siècle, C. Flammarion rassembla les anciennes estimations et les publia dans son ouvrage Les étoiles et les curiosités du ciel. Il était évident de son point de vue qu'un grand nombre d'étoiles avaient eu des variations séculaires. Pickering (1895) et Zinner (1926) publièrent deux autres compilations de catalogues. Ils ne partageaient pas le point de vue de Flammarion, mais ne purent interpréter l'information contenue dans les données. Il n'y a pas eu d'étude plus récente sur ce sujet. De nouvelles méthodes d'analyse -comme l'analyse factorielle des correspondances- ont été créées ces dernières années, qui permettent d'étudier de manière approfondie de grands tableaux de données. La finalité du travail présenté ici est de voir si ces méthodes peuvent nous aider à résoudre ce problème des variations séculaires. La compilation des catalogues originaux permet de constituer un tableau de données intégrant des éléments "signatures" des diverses causes susceptibles d'expliquer les écarts d'éclats (des causes astrophysiques à la non-fiabilité des données). Plusieurs analyses factorielles, utilisant des codages spécifiques des données, comme "l'écart aux valeurs attendues" ou le "codage flou en magnitude entière", créés pour limiter les différences de notations entre les observateurs sont effectuées. Il n'en ressort pas de "signatures" significativement corrélées avec les écarts d'éclats ; en particulier, il n'y a pas d'effet de couleur constaté. Il semble y avoir globalement "mémoire" des éclats d'un catalogue sur l'autre. Seul échape à cette règle, le catalogue de Sir William Herschel, qui est également le seul à contenir des comparaisons d'éclat et non pas des valeurs de magnitude. Cela amène à se demander si il n'aurait pas été protégé de cet effet de "mémoire" à cause de sa différence de notation. Ce travail ne clôt pas la question. Il se termine par la définition de nouvelles analyses à mettre en place : pour tirer des conclusions astrophysiques, il peut être utile de tester des traitements combinant l'analyse factorielle et l'analyse de Fourier. De tels traitements permettront de se débarasser de l'information de phase et d'effectuer des études de corrélation de périodes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Gérossier, Franck. „Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquence“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864181.

Der volle Inhalt der Quelle
Annotation:
Le SLAM, " Simultaneous Localisation And Mapping ", représente à l'heure actuelle l'une des principales thématiques investiguées dans le domaine des robots mobiles autonomes. Il permet, à l'aide de capteurs extéroceptifs (laser, caméra, radar, etc.) et proprioceptifs (odomètre, gyromètre, etc.), de trouver l'orientation et la localisation d'un robot dans un environnement extérieur vaste, inconnu ou modifié, avec la possibilité de créer une carte au fur et à mesure des déplacements du véhicule. Les travaux de thèse décrits dans ce manuscrit s'intègrent dans ce courant de recherche. Ils visent à développer un SLAM innovant qui utilise un radar à modulation de fréquence continue " FMCW " comme capteur extéroceptif. Ce capteur est insensible aux conditions climatiques et possède une portée de détection importante. Néanmoins, c'est un capteur tournant qui, dans une utilisation mobile, va fournir des données corrompues par le déplacement du véhicule. Pour mener à bien ces travaux, nous avons proposés différentes contributions : une correction de la distorsion par l'utilisation de capteurs proprioceptifs ; le développement d'une technique de localisation et cartographie simultanées nommée RS-SLAM-FMT qui effectue un scan matching sur les observations et utilise un algorithme estimatif de type EKF-SLAM ; l'utilisation, pour la première fois en SLAM, de la mise en correspondance par Transformée de Fourier-Mellin pour réaliser l'opération de scan matching ; la création d'un outil expérimental pour déterminer la matrice de covariance associée aux observations ; des tests de robustesse de l'algorithme dans des conditions d'utilisation réelles : dans des zones avec un faible nombre de points d'intérêts, sur des parcours effectués à vitesse élevée, dans des environnements péri-urbains avec une forte densité d'objets mobiles ; la réalisation d'une application temps réel pour le test du procédé sur un véhicule d'exploration qui se déplace dans un environnement extérieur vaste.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Borgetto, Manon. „Contribution à la construction de mosaïques d'images sous-marines géo-référencées par l'introduction de méthodes de localisation“. Phd thesis, Université du Sud Toulon Var, 2005. http://tel.archives-ouvertes.fr/tel-00009564.

Der volle Inhalt der Quelle
Annotation:
En milieu sous-marin, les mosaïques d'images collectées par un véhicule en déplacement permettent d'obtenir des cartes visuelles d'une zone d'intérêt. La trajectoire estimée du véhicule par simple intégration des vecteurs vitesse présente une dérive qui se répercute dans la mosaïque (en particulier lorsque le véhicule recoupe sa propre trajectoire). Le travail de cette thèse a consisté à estimer de la façon la plus précise la trajectoire du véhicule à partir de mesures de cap et de vitesse et d'une séquence d'images, en tenant compte des lieux de recoupement (ou points de rendez-vous). Nous estimons dans un premier temps ces couples d'instants par appariement d'images, puis les introduisons dans l'algorithme de localisation du véhicule. Dans un deuxième temps, la mosaïque est reconstruite. La méthodologie proposée ici devrait permettre de peaufiner encore la cartographie dans la mesure où les variances des paramètres de mouvement estimés par les images seules sont disponibles. Dans ce cas, une fusion des deux trajectoires est réalisable. Si ce n'est pas le cas, la cartographie visuelle est finalement améliorée au moyen de techniques de déformation d'images.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Fernandez-Abrevaya, Victoria. „Apprentissage à grande échelle de modèles de formes et de mouvements pour le visage 3D“. Electronic Thesis or Diss., Université Grenoble Alpes, 2020. https://theses.hal.science/tel-03151303.

Der volle Inhalt der Quelle
Annotation:
Les modèles du visage 3D fondés sur des données sont une direction prometteuse pour capturer les subtilités complexes du visage humain, et une composante centrale de nombreuses applications grâce à leur capacité à simplifier des tâches complexes. La plupart des approches basées sur les données à ce jour ont été construites à partir d’un nombre limité d’échantillons ou par une augmentation par données synthétiques, principalement en raison de la difficulté à obtenir des scans 3D à grande échelle. Pourtant, il existe une quantité substantielle d’informations qui peuvent être recueillies lorsque l’on considère les sources publiquement accessibles qui ont été capturées au cours de la dernière décennie, dont la combinaison peut potentiellement apporter des modèles plus puissants.Cette thèse propose de nouvelles méthodes pour construire des modèles de la géométrie du visage 3D fondés sur des données, et examine si des performances améliorées peuvent être obtenues en apprenant à partir d’ensembles de données vastes et variés. Afin d’utiliser efficacement un grand nombre d’échantillons d’apprentissage, nous développons de nouvelles techniques d’apprentissage profond conçues pour gérer efficacement les données faciales tri-dimensionnelles. Nous nous concentrons sur plusieurs aspects qui influencent la géométrie du visage : ses composantes de forme, y compris les détails, ses composants de mouvement telles que l’expression, et l’interaction entre ces deux sous-espaces.Nous développons notamment deux approches pour construire des modèles génératifs qui découplent l’espace latent en fonction des sources naturelles de variation, e.g.identité et expression. La première approche considère une nouvelle architecture d’auto-encodeur profond qui permet d’apprendre un modèle multilinéaire sans nécessiter l’assemblage des données comme un tenseur complet. Nous proposons ensuite un nouveau modèle non linéaire basé sur l’apprentissage antagoniste qui davantage améliore la capacité de découplage. Ceci est rendu possible par une nouvelle architecture 3D-2D qui combine un générateur 3D avec un discriminateur 2D, où les deux domaines sont connectés par une couche de projection géométrique.En tant que besoin préalable à la construction de modèles basés sur les données, nous abordons également le problème de mise en correspondance d’un grand nombre de scans 3D de visages en mouvement. Nous proposons une approche qui peut gérer automatiquement une variété de séquences avec des hypothèses minimales sur les données d’entrée. Ceci est réalisé par l’utilisation d’un modèle spatio-temporel ainsi qu’une initialisation basée sur la régression, et nous montrons que nous pouvons obtenir des correspondances précises d’une manière efficace et évolutive.Finalement, nous abordons le problème de la récupération des normales de surface à partir d’images naturelles, dans le but d’enrichir les reconstructions 3D grossières existantes. Nous proposons une méthode qui peut exploiter toutes les images disponibles ainsi que les données normales, qu’elles soient couplées ou non, grâce à une nouvelle architecture d’apprentissage cross-modale. Notre approche repose sur un nouveau module qui permet de transférer les détails locaux de l’image vers la surface de sortie sans nuire aux performances lors de l’auto-encodage des modalités, en obtenant des résultats de pointe pour la tâche
Data-driven models of the 3D face are a promising direction for capturing the subtle complexities of the human face, and a central component to numerous applications thanks to their ability to simplify complex tasks. Most data-driven approaches to date were built from either a relatively limited number of samples or by synthetic data augmentation, mainly because of the difficulty in obtaining large-scale and accurate 3D scans of the face. Yet, there is a substantial amount of information that can be gathered when considering publicly available sources that have been captured over the last decade, whose combination can potentially bring forward more powerful models.This thesis proposes novel methods for building data-driven models of the 3D face geometry, and investigates whether improved performances can be obtained by learning from large and varied datasets of 3D facial scans. In order to make efficient use of a large number of training samples we develop novel deep learning techniques designed to effectively handle three-dimensional face data. We focus on several aspects that influence the geometry of the face: its shape components including fine details, its motion components such as expression, and the interaction between these two subspaces.We develop in particular two approaches for building generative models that decouple the latent space according to natural sources of variation, e.g.identity and expression. The first approach considers a novel deep autoencoder architecture that allows to learn a multilinear model without requiring the training data to be assembled as a complete tensor. We next propose a novel non-linear model based on adversarial training that further improves the decoupling capacity. This is enabled by a new 3D-2D architecture combining a 3D generator with a 2D discriminator, where both domains are bridged by a geometry mapping layer.As a necessary prerequisite for building data-driven models, we also address the problem of registering a large number of 3D facial scans in motion. We propose an approach that can efficiently and automatically handle a variety of sequences while making minimal assumptions on the input data. This is achieved by the use of a spatiotemporal model as well as a regression-based initialization, and we show that we can obtain accurate registrations in an efficient and scalable manner.Finally, we address the problem of recovering surface normals from natural images, with the goal of enriching existing coarse 3D reconstructions. We propose a method that can leverage all available image and normal data, whether paired or not, thanks to a new cross-modal learning architecture. Core to our approach is a novel module that we call deactivable skip connections, which allows to transfer the local details from the image to the output surface without hurting the performance when autoencoding modalities, achieving state-of-the-art results for the task
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Narasimha, Ramya. „Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés“. Phd thesis, 2010. http://tel.archives-ouvertes.fr/tel-00543238.

Der volle Inhalt der Quelle
Annotation:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie