To see the other types of publications on this topic, follow the link: Stéréogramme.

Dissertations / Theses on the topic 'Stéréogramme'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Stéréogramme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Limkhaitir, Mohamed Mahmoud. "Modélisation des formes volumiques à partir d'images tomographiques 3D : application à la Caractérisation de l'espace poral du sol." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066556.

Full text
Abstract:
Nous présentations dans ce travail une méthode de représentation des formes volumiques 3D complexes. Nous dé nissons une forme volumique 3D par un ensemble de voxels extrait d'un traitement d'images Tomographiques 3D. cet ensemble est définit par sa fonction indicatrice. Notre objectif est le calcul d'une approximation analytique continue par morceau, compact, stable et robuste de la forme initiale, qui conserve ses propriétés topologiques et géométriques. Nous proposons une description de la forme par un ensemble minimum de boules incluses dans la forme et recouvrant son squelette. Nous démontrons le fait que cela revient à chercher un ensemble minimum de boules maximales recouvrant le squelette de la forme. Notre nouvelle représentation de la forme volumique, que nous appellerons MISS, donne une description optimal des cavités de la forme. Nous proposons un algorithme basé sur la triangulation de Delaunay 3D pour le calcul de la représentation MISS d'une forme volumique décrite par un ensemble de voxels. De cette représentation primaire nous arriverons à fournir une approximation par des primitives plus sophistiquées : cylindres, cônes et cylindres généralisés. Ainsi, nous proposons un algorithme pour calculer ces primitives à partir d'un réseau de boules. Le résultat nal est une description robuste intrinsèque de la forme initiale à la fois par des boules, cylindres, cônes et cylindres généralisés. Nous appliquons notre algorithme sur des images tomographique 3D du sol a n de fournir une description géométrique intrinsèque et robuste de l'espace poral ; cette description peut être, ensuite, utilisée pour la simulation des dynamiques biologiques du sol
In this thesis we present a primary representation for complex 3D volume shape. We de fine a 3D volume shape by a set of voxels derived from a computed tomography volume image. In a theoretical point of view, this set of voxels defi nes its indicatrix function. The basic idea is to look for a compact, stable and robust piece wise analytic approximation of the shape which conserves its topological and geometrical properties. We propose to describe a volume shape by a minimal number of balls included within the shape and recovering the shape skeleton. We show that it is equivalent to find out a (fi nite) minimal set of "maximal balls" recovering the skeleton. In the case where the absolute values of the principal curvatures of the shape envelope are bounded above we prove that such a finite set does exist. Indeed, our new shape representation provides an optimal description of the shape cavities. We propose an algorithm based on Delaunay 3D triangulation to compute the MISS of a volume shape described by a set of voxels. Afterwards, this representation can be used to approximate the shape using more sophisticated primitives like cylinders, cones, generalized cylinders. We propose algorithms to provide optimal cylinders and cones from ball network. The final result is an intrinsic and robust description of the initial shape using both balls, cylinders, cones. This scheme can be extended by using also curved cylinders and curved cones. Finally, we apply our algorithm to 3D volume Computed Tomography soil data in order to provide intrinsic and robust geometrical description of pore space to be used for biological dynamics simulation and modeling
APA, Harvard, Vancouver, ISO, and other styles
2

Buchholz, Bert. "Abstraction et traitement de masses de données 3D animées." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0080.

Full text
Abstract:
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées
In this thesis, we explore intermediary structures and their relationship to the employed algorithms in the context of photorealistic (PR) and non-photorealistic (NPR) rendering. We present new structures for rendering as well as new uses for existing structures. We present three original contributions in the NPR and PR domain: First, we present binary shading, a method to generate stylized black and white images, inspired by comic artists, using appearance and geometry in a graph-based energy formulation. The user can control the algorithm to generate images of different styles and representations. The second work allows the temporally coherent parameterization of line animations for texturing purposes. We introduce a spatio-temporal structure over the input data and an energy formulation for a globally optimal parameterization. Similar to the work on binary shading, the energy formulation provides a an important and simple control over the output. Finally, we present an extension to Point-based Global Illumination, a method used extensively in movie production during the last years. Our work allows compressing the data generated by the original algorithm using quantification. It is memory-efficient and has only a neglegible time overhead while enabling the rendering of larger scenes. The user can easily control the strength and quality of the compression. We also propose a number of possible extensions and improvements to the methods presented in the thesis
APA, Harvard, Vancouver, ISO, and other styles
3

Yvinec, Yann. "Appariement dense de stéréogrammes issus d'un capteur binoculaire non calibré." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT001H.

Full text
Abstract:
Cette these decrit une methode d'appariement dense de stereogrammes issus d'un capteur binoculaire non calibre. Dans un premier temps, une estimation des disparites bidimensionnelles est effectuee par une analyse espace-frequence. Les deux images, gauche et droite, sont convoluees avec des filtres de gabor bidimensionnels de differentes orientations. Les resultats de phases sont ensuite combines pour donner une estimation de la disparite bidimensionnelle en chaque pixel. Dans un deuxieme temps, un sous-ensemble de ces appariements, juges dignes de confiance, est choisi. Ces appariements servent de base a une estimation robuste et significative de la matrice fondamentale f associee au systeme de prise de vues. Un panorama des panachages possibles entre parametrages et modeles mathematiques qui mettent en jeu f est presente. Une fois connue la matrice fondamentale, et apres rectification, on se ramene au cas d'appariement dense unidimensionnel pour lequel une methode de resolution existe et a fait ses preuves. Ces deux etapes d'estimation, des disparites bidimensionnelles d'une part et de f d'autre part, sont d'abord modelisees, puis differentes methodes de resolution sont presentees. Elles entrent dans le cadre de l'estimation de parametres. La regression en distance orthogonale est decrite ainsi que des methodes d'estimation dites robustes. Ces methodes sont adaptees aux deux problemes traites. De nombreuses experiences, tant sur des stereogrammes aleatoires que sur des images reelles, valident la methode non seulement pas a pas mais aussi globalement
APA, Harvard, Vancouver, ISO, and other styles
4

Wehrli, Didier. "Contribution à l'étude locale des fronts d'ondes générés par des stéréogrammes holographiques." Université Strasbourg I, 1990. http://www.theses.fr/1990STR13208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Kemgue, Alain Trésor. "Modélisation des formes volumiques complexes par des volumes quadriques. Application à la représentation de l'espace poral du sol à partir des images tomographiques 3D." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS158.pdf.

Full text
Abstract:
Les structures naturelles sont constituées de formes complexes qui sont pour la plupart difficiles à modéliser avec de simples équations analytiques. La complexité de la représentation est due à l'hétérogénéité du milieu physique et à la variété des phénomènes impliqués. Nous nous intéressons dans notre étude à la représentation des structures volumiques complexes issues des images tomographiques. Grâce aux récentes avancées technologiques en tomographie assisté par ordinateur, l’acquisition d'images de formes avec les scanners est maintenant possible. Cependant, ces données images, constituées de voxels, ne sont pas directement utilisables pour simuler un certain nombre de phénomènes. Dans cette thèse, nous proposons une approche de modélisation de ces formes qui consiste à effectuer une approximation par morceaux des données images par des volumes quadriques. Nous proposons d'utiliser une stratégie de division-fusion et un algorithme de croissance de régions pour optimiser une fonctionnelle incluant à la fois un terme erreur d'approximation et un facteur d'échelle. Les données en entrée de notre algorithme sont un ensemble brut de voxels qui décrit une forme volumique complexe et le résultat en sortie est un ensemble de volumes quadriques tangents ou disjoints représentant la forme de départ de façon intrinsèque. Nous appliquons notre méthode pour représenter l'espace poral 3D du sol obtenu à partir des capteurs d'images tomographiques. Ainsi, dans ce contexte spécifique, nous validons notre modélisation géométrique en procédant aux simulations du drainage de l'eau et de l'activité de décomposition microbienne sur des données réelles d'échantillons de sol. Cette étude comporte plusieurs enjeux d’ordres écologique, agricole et industriel
Most of the natural shapes have complex volume forms that are usually difficult to model using simple analytical equations. The complexity of the representation is due to the heterogeneity of the physical environment and the variety of phenomena involved. In our study, we are interested by the complex volume shapes structures representation from computed tomographic images. Thanks to the technological advances in Computed Tomography scanners, the image acquisition of complex shapes becomes possible. However, these image data are not directly usable for simulation or modeling purposes. In this thesis, we investigate an approach of modeling of such shapes which consists in making a piecewise approximation of the image data by quadric volumes. We propose to use a split-merge strategy and a region growing algorithm to optimize a function that includes both an approximation error term and a scale factor term that is opposed to it. The input of our algorithms is voxel-based shape description and the result is a set of tangent or disjoint quadric volumes representing the shape in an intrinsic way. We apply our method to represent 3D soil pore space obtained from the Computed Tomography scanners. Within this specific context, we validate our geometrical modeling by performing simulations of water draining and microbial decomposition activities on real data soil sample. This study involves several ecological, agricultural and industrial issues
APA, Harvard, Vancouver, ISO, and other styles
6

Mallem, Abdelmalik. "Aide à la perception en téléopération : superposition à une image caméra d'une image synthétique animée en "temps réel" à partir d'informations capteurs." Paris 12, 1990. http://www.theses.fr/1990PA120009.

Full text
Abstract:
La teleoperation concerne en general la robotique en milieux extremes (spatial, sous-marin. . . ). La complexite des taches necessite la presence d'un operateur humain dans la boucle de perception-decision-commande. Celui-ci doit gerer un grand nombre d'informations: une cooperation entre l'operateur et le systeme est donc necessaire. La vision de la scene, representee par le robot et son environnement, est assuree par camera(s). L'image video peut etre degradee pour des raisons diverses (turbidite de l'eau, eblouissement de la camera, presence d'obstacles, degagement de fumee ou poussieres, faible debit du canal de transmission. . . ). La these porte sur la conception et la realisation d'un systeme destine a procurer a l'operateur, en situation de teleoperation ou de supervision, une assistance visuelle a la perception de la scene. Le systeme a. P. T. E. (aide a la perception en teleoperation) permet la superposition d'une image synthetique 3d a une image camera. L'image synthetique est animee en temps reel a partir d'informations capteurs issues de la scene. Elle peut apporter a l'operateur des indices lui permettant d'apprecier la profondeur ou des informations sur les positions des objets. Dans ce dernier cas, l'operateur peut continuer l'execution de la tache meme si l'image camera se degrade. En outre, ce systeme peut etre l'outil de base assurant des fonctionnalites de teleoperation: commande par designation sur l'ecran video de l'objet a saisir, retour d'information predictif (utile en cas de retard important de transmission)
APA, Harvard, Vancouver, ISO, and other styles
7

Paquette, François. "La stéréopsie telle que mesurée par la discrimination de stéréogrammes de Julesz chez quatre sujets atteints d'agénésie calleuse." Thèse, Université du Québec à Trois-Rivières, 1985. http://depot-e.uqtr.ca/5859/1/000559857.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Chammem, Afef. "Robust watermarking techniques for stereoscopic video protection." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0008.

Full text
Abstract:
La multiplication des contenus stéréoscopique augmente les risques de piratage numérique. La solution technologique par tatouage relève ce défi. En pratique, le défi d’une approche de tatouage est d'atteindre l’équilibre fonctionnel entre la transparence, la robustesse, la quantité d’information insérée et le coût de calcul. Tandis que la capture et l'affichage du contenu 3D ne sont fondées que sur les deux vues gauche/droite, des représentations alternatives, comme les cartes de disparité devrait également être envisagée lors de la transmission/stockage. Une étude spécifique sur le domaine d’insertion optimale devient alors nécessaire. Cette thèse aborde les défis mentionnés ci-dessus. Tout d'abord, une nouvelle carte de disparité (3D video-New Three Step Search- 3DV-SNSL) est développée. Les performances des 3DV-NTSS ont été évaluées en termes de qualité visuelle de l'image reconstruite et coût de calcul. En comparaison avec l'état de l'art (NTSS et FS-MPEG) des gains moyens de 2dB en PSNR et 0,1 en SSIM sont obtenus. Le coût de calcul est réduit par un facteur moyen entre 1,3 et 13. Deuxièmement, une étude comparative sur les principales classes héritées des méthodes de tatouage 2D et de leurs domaines d'insertion optimales connexes est effectuée. Quatre méthodes d'insertion appartenant aux familles SS, SI et hybride (Fast-IProtect) sont considérées. Les expériences ont mis en évidence que Fast-IProtect effectué dans la nouvelle carte de disparité (3DV-NTSS) serait suffisamment générique afin de servir une grande variété d'applications. La pertinence statistique des résultats est donnée par les limites de confiance de 95% et leurs erreurs relatives inférieurs er <0.1
The explosion in stereoscopic video distribution increases the concerns over its copyright protection. Watermarking can be considered as the most flexible property right protection technology. The watermarking applicative issue is to reach the trade-off between the properties of transparency, robustness, data payload and computational cost. While the capturing and displaying of the 3D content are solely based on the two left/right views, some alternative representations, like the disparity maps should also be considered during transmission/storage. A specific study on the optimal (with respect to the above-mentioned properties) insertion domain is also required. The present thesis tackles the above-mentioned challenges. First, a new disparity map (3D video-New Three Step Search - 3DV-NTSS) is designed. The performances of the 3DV-NTSS were evaluated in terms of visual quality of the reconstructed image and computational cost. When compared with state of the art methods (NTSS and FS-MPEG) average gains of 2dB in PSNR and 0.1 in SSIM are obtained. The computational cost is reduced by average factors between 1.3 and 13. Second, a comparative study on the main classes of 2D inherited watermarking methods and on their related optimal insertion domains is carried out. Four insertion methods are considered; they belong to the SS, SI and hybrid (Fast-IProtect) families. The experiments brought to light that the Fast-IProtect performed in the new disparity map domain (3DV-NTSS) would be generic enough so as to serve a large variety of applications. The statistical relevance of the results is given by the 95% confidence limits and their underlying relative errors lower than er<0.1
APA, Harvard, Vancouver, ISO, and other styles
9

Dautraix, Isabelle. "LaStéréo échographie. : Une nouvelle technique de visualisation volumique de données ultrasonores." Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0012.

Full text
Abstract:
Ce travail de thèse concerne la présentation en relief de données ultrasonores médicales obtenues par échographie B. L'originalité de cette étude consiste a transposer les techniques stéréoscopiques conventionnelles dans le domaine de l'imagerie ultrasonore. Par analogie avec la stéréoradiographie par rayons x, le principe de la stéréo-échographie est établi. Un volume homogène de données, repéré en coordonnées cartésiennes, est obtenu par interpolation de coupes ultrasonores 2d acquises par translation ou rotation d'une sonde échographique. En utilisant les équations de colinéarité de la photogrammétrie, on réalise deux stéréo-échogrammes de synthèse de ce volume ultrasonore. La valeur des paramètres des systèmes simules de prise de vues est choisie de manière à optimiser la restitution visuelle du relief. De plus, pour faciliter la restitution du relief, les données ultrasonores peuvent être pré-traitées avant le calcul des stéréo-échogrammes et des données de synthèse (volumes géométrique simples) peuvent être ajoutées aux données. Les algorithmes de calcul des stéréo-échogrammes ont été validés sur des fantômes physiques puis appliqués à des données ultrasonores réelles (foie, fœtus,. . . ). Contrairement aux techniques de rendu de surface ou de volume, délicates a appliquer à des données ultrasonores très bruitées par nature, la stéréo-échographie fournit une présentation en vrai relief qui facilite l'interprétation et la compréhension de structures 3D complexes insonifiées
This work concerns the presentation in relief of medical ultrasonic data obtained by echography B. The originality of this study consists in transposing the classical stereoscopic technicals in the field of ultrasonic imaging. By analogy with the stereo-radiography by X rays, the principle of the stereo-echographis drawn up. An homogeneous volume of data, in Cartesian coordinates, is obtained by interpolation of the ultrasonic cross-sectional images acquired by translation or rotation of an echographic probe. Thanks to the collinear equations of the photogrammetry, two stereo-echograms of the ultrasonic volume are computerized. The value of the parameters of simulated systems of shot is chosen so that the visual restitution of the relief is optimized. Moreover, in order to make the restitution of the relief easier, the ultrasonic data can be pre-treated before the calculation of the stereo-echograms and some synthetic data (simple geometrical volumes) can be added to the data. The algorithms of the computation of the stereo-echograms have been first validated on physical phantoms and then applied on actual ultrasonic data (liver, foetus,. . . ). Contrary to the technicals of surface or volume rendering, which are difficult to apply to ultrasonic data which are very noisy by nature, the stereo-echography provides a presentation in true relief which makes the interpretation and the understanding of 3D complicated structures easier
APA, Harvard, Vancouver, ISO, and other styles
10

CARTOUX, JEAN-YVES. "Formes dans les images de profondeur. Application a l'authentification et a la reconnaissance de visages." Clermont-Ferrand 2, 1989. http://www.theses.fr/1989CLF21189.

Full text
Abstract:
Le travail presente dans ce memoire s'inscrit dans le cadre de la comprehension d'images tri-dimensionnelles. Dans la premiere partie, on s'interesse aux problemes de representation des formes solides ainsi qu'aux proprietes geometriques caracteristiques des surfaces. La seconde partie est consacree a l'authentification et a la reconnaissance de visages. Notre approche repose sur l'extraction du plan de profil. Ce plan determine un referentiel attache a la surface du visage. Comparer deux images de visages consiste alors a estimer la transformation geometrique entre les profils puis a effectuer des mesures de similarite entre primitives geometriques (courbes de profil, surfaces de visages). Des criteres d'authentification et de reconnaissance sont proposes pour chaque type de primitive
APA, Harvard, Vancouver, ISO, and other styles
11

Hariti, Mohamed. "Une méthode rapide d'appariement d'images stéréoscopiques : application à la perception de l'environnement d'un véhicule routier." Besançon, 2004. http://www.theses.fr/2004BESA2032.

Full text
Abstract:
La stéréovision passive est une approche très utilisée pour la reconstruction 3-D à partir d'images prises sous des angles de vue différents. Le problème clé de cette approche est celui de la mise en correspondance de primitives extraites d'images stéréoscopiques. Ce problème a une nature combinatoire et la complexité des algorithmes de mise en correspondance constitue souvent un handicape face à des applications temps réel, telles que la détection d'obstacles à l'avant d'un véhicule routier. Dans cette thèse, nous proposons une nouvelle méthode, à la fois robuste et rapide, pour mettre en correspondance les points de contour extraits d'images stéréoscopiques. À l'issue de leur extraction par dérivation d'une image brute, les points de contour sont caractérisés par 3 attributs : la position dans l'image, le signe et l'amplitude du gradient. Basée sur une approche de recherche globale, notre méthode de mise en correspondance consiste à attribuer un score à chaque couple de points de contour vérifiant deux contraintes locales : les contraintes de position et de signe du gradient. Ce score, qui représente une mesure de qualité de l'appariement d'un couple de points de contour, est calculé en utilisant une technique de vote qui exploite 3 contraintes globales : les contraintes d'unicité, d'ordre et de continuité de la disparité. Nous présentons ensuite une technique de pondération des scores des couples en exploitant l'attribut de l'amplitude du gradient des points de contour. Le coefficient de pondération associé à chaque couple est calculé en comparant les amplitudes du gradient des points de contour. Cette comparaison s'effectue de telle sorte que plus les amplitudes des points de contour d'un couple sont proches, plus le poids affecté à ce couple est important (et inversement). Enfin, nous proposons une autre façon pour exploiter l'amplitude du gradient des points de contour dans notre procédure de mise en correspondance. Il s'agit de mettre en correspondance les points de contour hiérarchiquement et à plusieurs niveaux de recherche, en partant des points de contour les plus significatifs (ayant des fortes amplitudes) vers les points de contour les moins significatifs (ayant des faibles amplitudes). À partir d'un niveau de recherche donné, les points de contour les plus significatifs sont sélectionnés et mis en correspondance. Les couples de points de contour appariés sont ensuite utilisés comme couples de référence pour mettre en correspondance les points de contour restants au niveau de recherche suivant, en réappliquant la même stratégie. Les performances de notre méthode de mise en correspondance sont évaluées et comparées avec les performances d'autres méthodes récentes, dans le cadre de la détection d'obstacles à l'avant d'un véhicule en utilisant la stéréovision linéaire
Passive stereo vision is a well known approach for recovering 3-D information from two or more images of a scene observed from different viewpoints. The key problem in this approach is the matching process, which is difficult to solve and computationally expensive. In the robot vision domain, this problem is generally simplified by making hypotheses about the type of objects being observed and their visual environment so that structural features, such as corners or vertical straight lines, can be more or less easily extracted. Unfortunately, setting-up a conventional stereo vision system on board a moving vehicle for real-time obstacle detection is difficult because, in the road environment, the features are too numerous to allow a reliable matching within an acceptable computer time. In this thesis, we propose a new method to achieve real-time edge stereo matching. A procedure is first applied to extract edges from the left and right linear images. Each edge is characterized by its position in the image, the magnitude and the sign of the gradient. Based on a global searching approach, the stereo matching method consists in affecting a score to each pair of edges, which respects the position and slope constraints. This score represents the matching quality of a pair of edges. It is calculated thanks to a voting process, which is based on three global constraints : uniqueness, ordering and smoothness constraints. We present afterwards a procedure for weighting the scores of the possible matches by using the gradient magnitudes of the edges. The weight affected to each pair of edges is calculated by comparing their gradient magnitude. This comparison supposes that important weights are affected to the pairs of edges for which the gradient magnitudes are close (and vice-versa). Finally, we propose another way for making use of the gradient magnitudes of the edges to perform stereo matching. It consists in matching edges at different levels, from significant edges to less significant ones. At each level, the process starts by selecting significant edges with respect to their gradient magnitude. The selected edges are then matched and the obtained pairs are used as reference pairs for matching less significant edges in the next level. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
12

Abi-Ayad, Arslane. "Calibrages statique et dynamique de caméras : application à la manipulation d'objets polyédriques par un robot sous le contr^ole d'une tête de vision stéréoscopique." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT061H.

Full text
Abstract:
Cette these presente une etude approfondie du probleme de calibrage de cameras dans le cadre de la vision stereoscopique par ordinateur. La premiere partie est consacree a l'etude d'une methodologie de calibrage de cameras ccd. Elle se subdivise en: calibrage de cameras fixes: calibrage statique; calibrage des systemes mecaniques articules; calibrage de cameras mobiles: calibrage dynamique; proposition d'un code robuste de calibrage de cameras s'appuyant sur les meilleurs resultats dans ce domaine. La deuxieme partie presente une application du calibrage a la localisation et a la saisie - depose d'objets polyedriques. Une riche experimentation est menee a partir d'un systeme de vision stereoscopique mobile (noisiv) et d'un robot manipulateur
APA, Harvard, Vancouver, ISO, and other styles
13

Marion-Poty, Virginie. "Approches parallèles pour la squelettisation 3-D." Lyon 1, 1994. http://www.theses.fr/1994LYO10342.

Full text
Abstract:
Dans cette thèse nous nous sommes intéressés à deux grands problèmes: d'une part l'extension de méthodes de squelettisation à des objets tridimensionnels, et d'autre part la paralllisation de ces méthodes sur machine parallèle MIMD. Le manuscrit comporte première partie contenant trois chapitres et encadrée par l'introduction et la conclusion, et une seconde partie constituée de quatre annexes reprenant des articles présentés lors de conférences ou de workshops. Le premier chapitre est une présentation du sujet. Il offre un panorama rapide des concepts utilisés et des méthodes classiques de squelettisation. Il pose les problèmes et opte pour les méthodes d'amincissement. Le problème du cas 3-d est pose. Le second chapitre a pour objet de nouveaux algorithmes de squelettisation. Il présente d'une part un algorithme 2-d base sur l'opérateur de O'gorman. D'autre part il s'intéresse à la squelettisation par génération de contour base sur un opérateur 2-d et 3-d. Le dernier chapitre concerne l'implantation parallèle d'algorithmes de squelettisation. Deux domaines sont abordes: l'allocation de données sur un réseau de processeurs, et deux méthodes d'implantation d'algorithmes par décomposition de l'opérateur et du domaine
APA, Harvard, Vancouver, ISO, and other styles
14

Feisst, Markus. "Study of protocols and realisation of a augmented mobile virtual reality system." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/FEISST_Markus_2006.pdf.

Full text
Abstract:
La réalité 3D virtuelle peut fournir une présentation réaliste d'information à l'utilisateur. Avec l'aide des langages de description pour la réalité virtuelle (par exemple VRML, X3D) des moyens puissants sont disponibles et peuvent être présentés sur un PC moderne dans un navigateur Web équipé avec un plugin. Le travail de thèse a permis de fournir la même fonctionnalité aux utilisateurs en téléphones portables. À cette fin la fonctionnalité des téléphones portables est examinée. Pour réaliser l'optimisation pour des téléphones portables un proxy est introduit pour exécuter l'optimisation de données pour le téléphone portable. Améliorant le réalisme, des méthodes pour montrer la réalité 3D virtuelle en tant que présentation stéréoscopique sont examinées et présentées
3D virtual reality can provide a realistic presentation of information to the user. With the help of description languages for virtual reality (e. G. VRML, X3D) powerful means are available which can be presented on modern personal computer in a web browser featured with a plug-in. The goal of this research was to provide the same functionality to users with mobile phones. For this purpose functionality of mobile phones was examined. In order to realise optimisation for mobile phones a proxy is introduced to perform the data optimisation for the corresponding mobile phone on the fly. Improving the realism, methods to display the 3D virtual reality as stereoscopic presentation are examined and presented
APA, Harvard, Vancouver, ISO, and other styles
15

Evrard, Ludovic. "Contribution à la reconstruction surfacique par organisation perceptuelle sous vision monoculaire en lumière structurée." Littoral, 1998. http://www.theses.fr/1998DUNK0026.

Full text
Abstract:
Ce mémoire s'articule autour de la modélisation et de la reconstruction des surfaces planes 3D à l'aide d'une caméra et d'un laser projetant plusieurs plans. La première partie rappelle les différentes méthodes de perception tridimensionnelle en insistant sur les méthodes basées sur la vision en lumière structurée. Les méthodes les plus communes de reconstruction de surfaces sont également évoquées. Cet aperçu relativement exhaustif nous permet de définir le cadre de notre travail. La seconde partie présente la calibration de la camera et des plans laser pour décrire un système multi-sensoriel global. Une étude comparative des méthodes d'identification classiques sur les paramètres de calibration est effectuée sur la base d'une minimisation de l'erreur de reconstruction. La troisième partie expose trois traitements successifs de l'image : l'étiquetage des raies laser est suivi d'une méthode d'extraction du motif lumineux. Chaque raie extraite est alors identifiée comme un signal monodimensionnel sur lequel est appliqué un filtrage de Kalman adaptatif permettant de localiser les arêtes. A l'issue de ce chapitre, l'image peut alors être décomposée en un ensemble de raies laser, elles-mêmes découpées en plusieurs segments droits, dénotant de la projection d'un plan laser sur une face 3D. Après avoir développé les notions de lambda-mesures et d'intégrales floues dans le chapitre 4, la cinquième partie s'attache à définir des critères géométriques sur l'ensemble des segments 2D pour exprimer la coplanarité 3D. Les segments sont regroupés entre eux si l'évaluation synthétique délivrée par l'intégrale de Choquet sur l'appartenance de ces segments à la même surface, exprimée à partir des critères géométriques, est supérieure à un seuil défini. La phase de reconstruction consiste alors à ajuster un plan sur les données 3D extraites des groupes de segments 2D.
APA, Harvard, Vancouver, ISO, and other styles
16

Hubert, Guillaume. "Elaboration d'une méthode de prédiction du taux d'aléas logiques induits dans les mémoires SRAM par les neutrons atmosphériques." Montpellier 2, 2002. http://www.theses.fr/2002MON20002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Sabater, Neus. "Fiabilité et précision en stéréoscopie : application à l’imagerie aérienne et satellitaire à haute résolution." Cachan, Ecole normale supérieure, 2009. http://tel.archives-ouvertes.fr/tel-00505143/fr/.

Full text
Abstract:
Cette thèse se situe dans le cadre du projet MISS (Mathématiques de l’Imagerie Stéréoscopique Spatiale) monté par le CNES en collaboration avec plusieurs laboratoires universitaires en 2007. Ce projet se donne l’objectif ambitieux de modéliser un satellite stéréoscopique, prenant deux vues non simultanées mais très rapprochées de la Terre en milieu urbain. Son but principal est d’obtenir une chaîne automatique de reconstruction urbaine à haute résolution à partir de ces deux vues. Ce projet se heurte toutefois à des problèmes de fond que la présente thèse s’attache à résoudre. Le premier problème est le rejet des matches qui pourraient se produire par hasard, notamment dans les zones d’ombres ou d’occlusion, et le rejet également des mouvements au sol (véhicules, piétons, etc. ). La thèse propose une méthode de rejet de faux matches basée sur la méthodologie dite a contrario. On montre la consistance mathématique de cette méthode de rejet, et elle est validée sur des paires simulées exactes, sur des vérités terrain fournies par le CNES, et sur des paires classiques de benchmark (Middlebury). Les matches fiables restants représentent entre 40% et 90% des pixels selon les paires testées. Le second problème de fond abordé est la précision. En effet le type de stéréoscopie envisagé exige un très faible angle entre les deux vues, qui sont visuellement presque identiques. Pour obtenir un relief correct, il faut effectuer un recalage extrêmement précis, et calibrer le niveau de bruit qui permet un tel recalage. La thèse met en place une méthode de recalage subpixélien, qui sera démontrée être optimale par des arguments mathématiques et expérimentaux. Ces résultats étendent et améliorent les résultats obtenus au CNES par la méthode MARC. En particulier, il sera montré sur les images de benchmark Middlebury que la précision théorique permise par le bruit correspond bien à celle obtenue sur les matches fiables. Bien que ces résultats soient obtenus dans le cadre d’un dispositif d’acquisition précis (stéréoscopie aérienne ou satellitaire à faible angle), tous les résultats sont utilisables en stéréoscopie quelconque, comme montré dans beaucoup d’expériences
This thesis is a contribution to stereovision written in the framework of the MISS (Mathematics for Stereoscopic Space Imaging) project launched by CNES in cooperation with several university laboratories in 2007. This project has the ambitious goal to model a stereo satellite, using two almost simultaneous views of the Earth with small baseline in urban areas. Its main goal is to get an automatic chain of urban reconstruction at high resolution from such pairs of views. The project faces fundamental problems that this thesis aims at solving. The first problem is the rejection of matches that could occur just by chance, particularly in shadows or occlusions, and the rejection of moving objects (vehicles, pedestrians, etc. ). This thesis proposes a method for rejecting false matches based on the a contrario methodology. The mathematical consistency of this rejection method will be shown and it will be validated on exact simulated pairs, on ground truths provided by CNES, and pairs of classical benchmark (Middlebury). The reliable accepted matches reach a 40% to 90% density in the tested pairs. The second issue is the accuracy. Indeed, the type of considered stereoscopy requires a very low baseline between the two views, which are visually almost identical. To get a proper relief, an extremely accurate shift must be estimated, and the noise level that allows this accuracy must be calibrated. In this thesis a subpixel disparity estimation method is proposed, which will be proved optimal by experimental and mathematical arguments. These results extend and improve the results obtained by the CNES method MARC. In particular, it will be shown on the Middlebury benchmark that the theoretical accuracy allowed by the noise exactly corresponds to the accuracy obtained on the reliable matches. Although these results are obtained within the framework of a specific acquisition system (low baseline stereoscopy on aerial or satellite images), all results are used in a general stereo framework, as shown in many experiments
APA, Harvard, Vancouver, ISO, and other styles
18

Lenoir, Nicolas. "Comportement mécanique et rupture dans les roches argileuses étudiés par micro tomographie à rayons X." Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10025.

Full text
Abstract:
Dans le cadre des etudes de faisabilite du stockage des dechets radioactifs en couches geologiques profondes, l'etude de l'evolution de la permeabilite de la couche hote en fonction de l'endommagement est primordiale. Ce travail a consiste d'une part, a etudie experimentalement l'endommagement de deux roches argileuses (marne de beaucaire et argilite de l'est) a l'aide des techniques de micro tomographie a rayons x, et d'autre part, a developper une installation trixiale haute pression adaptee aux mesures de permeabilite sur des roches de tres faibles permeabilites. Des installations triaxiales originales ont ete realisees afin de caracteriser sous chargement deviatoire l'endommagement des roches argileuses a l'aide de la micro tomographie a rayons x sur une ligne synchrotron a l'esrf (grenoble). L'endommagement localise et son evolution en cours d'essai, ont ainsi pu etre caracterises a une echelle fine (de l'ordre de la dizaine de microns). Les techniques de correlation d'images numeriques etendues aux images tridimensionnellles ont ete utilisees pour mesurer les champs incrementaux de deformation et ont montre leur interet dans l'etude de l'endommagement localise dans les geomateriaux et notamment de son evolution. Enfin, une installation triaxiale haute pression a ete realisee pour mesurer l'evolution de la permeabilite de l'argilite de l'est en fonction du niveau de contraintes (isotrope et deviatoire) appliquees. Sa particularite est la petite taille des echantillons (cylindres de 10mm de diametre et 20mm de hauteur) afin de reduire les temps d'essais
WITHIN THE FRAMEWORK OF FEASABILITY STUDIES OF UNDERGROUND REPOSITORIES FOR RADIOACTIVE WASTE, THE STUDY OF PERMEABILITY EVOLUTION WITH DAMAGE OF THE HOST LAYER IS CRUCIAL. THE GOALS OF THIS WORK WERE : (i) TO CHARACTERIZE EXPERIMENTALLY THE DAMAGE OF TWO CLAYEY ROCKS (BEAUCAIRE MARL AND EAST SHALE) WITH X-RAY MICRO TOMOGRAPHY, (ii) TO DEVELOPP A HIGH PRESSURE TRIAXIAL SET-UP ADAPTED TO PERMEABILITY MEASUREMENT ON VERY LOW PERMEABILITY ROCKS. A NUMBER OF ORIGINAL TRIAXIAL DEVICES HAVE BEEN REALISED TO CHARACTERIZE DAMAGE OF CLAYEY ROCKS, UNDER DEVIATORIC LOADING, WITH X-RAY MICRO TOMOGRAPHY ON A SYNCHROTRON BEAMLINE AT THE ESRF (GRENOBLE). LOCALIZED DAMAGE AND ITS EVOLUTION HAVE BEEN CHARACTERIZED AT A FINE SCALE (OF ORDER OF TEN MICRONS). DIGITAL IMAGE CORRELATION TECHNIQUES, EXTENDED TO 3D IMAGES, HAVE BEEN USED TO MEASURE INCREMENTAL STRAIN FIELDS FROM TOMOGRAPHIC IMAGES. WE DEMONSTRATED THAT THESE TECHNIQUES ARE VERY USEFUL IN THE STUDY OF THE LOCALIZED DAMAGE OF GEOMATERIALS AND ESPECIALLY FOR THE INITIATION. A HIGH PRESSURE TRIAXIAL DEVICE HAS BEEN REALISED TO MEASURE PERMEABILITY EVOLUTION OF THE EAST SHALE AS A FUNCTION OF APLLIED STRESS (ISOTROPIC AND DEVIATORIC). THE PARTICULARITY OF THIS SET-UP IS THE SMALL SIZE OF THE TEST SPECIMEN (CYLINDER OF 10MM IN DIAMETER AND 20MM IN HEIGHT) WHICH ALLOWS SIGNIFICANT REDUCTION OF TEST DURATION
APA, Harvard, Vancouver, ISO, and other styles
19

Perroton, Laurent. "Segmentation parallèle d'images volumiques." Lyon 1, 1994. http://www.theses.fr/1994LYO10328.

Full text
Abstract:
Dans cette these, nous nous sommes interesse a plusieurs problemes lies a l'imagerie discrete 3d d'une part, et a la parallelisation d'algorithmes de segmentation d'images d'autres part. Dans une premiere partie, divers problemes d'imagerie discrete 3d sont presentes. L'approche des complexes cellulaires dont l'objectif est d'offrir une modelisation coherente en imagerie volumique discrete est introduite. Une notion de surface discrete composee d'elements bidimensionnels de l'espace 3d est rappele. Plusieurs resultats theoriques sur ce sujet sont rassembles dans un rapport de recherche fourni en annexe. Les principaux resultats personnels sont repris dans la these: une extension aux objets 26-connexes de la definition des surfaces discretes qui verifie la propriete fondamentale qu'il existe une surface connectee entre chaque pair de composante objet, composante du fond. Enfin, on propose egalement un algorithme d'extraction de surfaces sur pram. Dans une deuxieme partie, une bibliographie sur le sujet de la segmentation d'image est presentee. Des algorithmes de segmentation d'image par fusion de regions sont introduits, et on compare des algorithmes a caracteres intrinsequement sequentiels et paralleles existant. Dans ce cadre la, une etude de la parallelisation de l'etiquetage en composantes connexes des images binaires 3d est presentee. Une bibliographie du sujet decris les principaux algorithmes sequentiels et les diverses approches paralleles existantes. Nous introduisons notre contribution personnelle qui est un algorithme parallele sur hypercule ipsc860. La derniere partie de la these presente divers outils qui ont ete developpes pour la parallelisation du traitement d'images volumiques: la librairie ppcm qui definie un standard de communication pour des machines paralleles mimd a memoire distribuee et une structure de donnee qui inclue des fonctions d'equilibrage de charges
APA, Harvard, Vancouver, ISO, and other styles
20

Bolland, Patrice. "Traitements d'images ultrasonores : étude et application de la transformation de Hough aux échos de diffraction." Dijon, 1999. http://www.theses.fr/1999DIJOS074.

Full text
Abstract:
Cette thèse est consacrée à une étude de détection, caractérisation et localisation de défauts en imagerie ultrasonore tridimensionnelle. Nous introduisons dans la première partie le contrôle non destructif par ultrasons de pièces métalliques. Nous décrivons les techniques existantes utilisées pour détecter, caractériser les défauts et les principes d'acquisition ultrasonore. Nous détaillons plus particulièrement la technique TOFD basée sur une exploitation des ondes diffractées par les fissures. La seconde partie présente le problème de la reconnaissance de formes en traitement d'images. Une approche basée sur la recherche de formes paramétrées dans une image est présentée : la transformation de Hough. Une application à la recherche d'alignements de points est proposée, mettant en évidence les intérêts et les difficultés de cette méthode. Une exploitation originale est ensuite développée dans la troisième partie. Une modélisation des arcs de diffraction par un nombre de paramètres réduit est réalisée. Le fort gradient présent le long des arcs de diffraction est mis en évidence par une technique de filtrage optimal et intègre dans la construction de l'espace des paramètres. La dernière partie présente une approche tridimensionnelle exploitant le contour et la forme tridimensionnels du défaut. Une exploitation de la variation des intensités des pixels constituant l'arc de diffraction tridimensionnel permet la construction de l'espace des paramètres. Une généralisation à l'espace tridimensionnel de l'approche développée au chapitre trois est présentée. La combinaison de ces deux concepts permet la mise au point d'un opérateur de reconnaissance de formes global montrant l'intérêt de l'approche tridimensionnelle. Nous présentons pour les deux approches décrites aux chapitres trois et quatre, une validation sur d'importants jeux de test issus d'une application industrielle (détection de fissures dans les éléments métalliques du circuit primaire de centrales nucléaires).
APA, Harvard, Vancouver, ISO, and other styles
21

Knödel, Sebastian. "Beyond desktop : designing novel user interfaces to enhance 3D exploration." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2010BOR13912/document.

Full text
Abstract:
Notre recherche concerne les nouvelles approches qui améliorent l’exploration 3D dans des environnements virtuels pour les utilisateurs. De ce fait, nous nous focalisons sur la conception de nouvelles techniques d’interaction 3D transversales, qui sont simples, efficaces et bénéficient de la nouvelle périphérique d’entrée, comme les interfaces tactiles. Notre approche permet aux utilisateurs d’effectuer une interaction 3D complexes à l’aide d’entrée touche simple et multiples. Les utilisateurs effectuer des gestes en utilisent des touches simple et des esquisses pour interagir avec le contenu. Pour faire des conclusions sur la facilité d’utilisation de nos interfaces nous évaluons les techniques d’interaction en menant des études utilisateurs. Ensuite, nous adoptons des techniques traditionnelles et d’illustration de visualisation pour mettre en avant des caractéristiques différentes de l’objet en cible tout en préservant les informations de contexte. En outre, nous proposons de nouvelles méthodes de collaboration entre les utilisateurs qui interagissent avec les données 3D en utilisant la technologie divers, comme des périphériques mobiles de petite taille et des environnements virtuels immersifs
Our research concerns the investigation of new approaches that enhance 3D exploration in virtual environments for users. Thereby, we concentrate on design of novel transversal 3D interaction techniques that are simple, efficient and benefit from new input technology, like tactile interfaces. Our approach allows users to perform complex 3D interaction using single and multiple 2D touch input. Users carry out simple touch, stroke or sketch-based gestures to interact with content. To draw conclusions about the usability of our interfaces we evaluate the interaction techniques by conducting users studies. In addition, we adopt different traditional and illustrative visualization techniques to highlight object characteristics in focus while preserving context information. Furthermore, we propose new methods for collaboration between users, who interact together with 3D data using varying technology, from small mobile devices to immersive virtual environments
APA, Harvard, Vancouver, ISO, and other styles
22

Kermi, Adel. "Reconstructions faciales à partir d'images tridimensionnelles de crânes humains par recalage et modèle déformable pour l'identification de personnes." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004311.

Full text
Abstract:
La reconstruction faciale à partir d'un squelette crânien est une technique importante dans plusieurs domaines scientifiques, en particulier dans les sciences médico-légales, l'archéologie et la paléontologie pour l'identification de crânes et la reconnaissance de personnes. Elle fait partie des méthodes d'identification reconstructive et est utilisée le plus souvent en dernier recours, lorsqu'aucune autre technique ne permet de présumer l'identité inconnue de la personne. Cette thèse aborde la problématique de la reconstruction faciale à partir d'images tridimensionnelles (3D) de crânes humains considérés comme étant inconnus. Nous présentons une méthode de reconstruction faciale 3D informatisée reposant sur des techniques récentes d'imagerie médicale avec comme principaux objectifs la rapidité du traitement et l'élimination de la subjectivité en s'appuyant en particulier sur des critères mathématiques pour évaluer les résultats. Notre méthode est fondée sur une approche par modèle déformable contraint par la connaissance des épaisseurs des tissus mous en un certain nombre de points de repère caractéristiques. Elle utilise, pour chaque reconstruction faciale, une image 3D d'une tête de référence dont nous extrayons la peau et le crâne, et une image 3D du crâne d'une tête inconnue dont nous voulons reconstruire la peau. La procédure de la reconstruction faciale est divisée en deux principales étapes. Une étape d'initialisation du modèle déformable est fondée sur une technique de recalage non linéaire guidé par un modèle de déformations de forme libre (FFD) à base de B-splines. Nous proposons donc une initialisation automatique, réalisée uniquement à partir d'un ensemble crâne et peau de référence et du crâne inconnu. Nous calculons, dans un premier temps, une transformation de l'image 3D d'un crâne de référence vers celle du crâne inconnu. Ensuite, nous appliquons la même transformation pour déformer l'image de la peau de référence vers une nouvelle peau que nous considérons proche de la peau inconnue et qui servira d'initialisation à la reconstruction faciale finale. Dans une seconde étape, la peau initiale, résultant de la transformation calculée précédemment, est raffinée à l'aide d'un modèle déformable 3D à base de maillages simplexes qui est attiré par un ensemble des points de repère caractéristiques préalablement calculés par un calcul des courbures moyenne et gaussienne, et fixés selon les positions des repères anthropologiques de Rhine et Campbell [Rhine et Campbell, 1980]. L'évolution de notre modèle déformable est effectuée suivant différentes forces internes et externes dont la force de champ de vecteurs de gradients (GVF) et une force de pression. Cette méthode a été testée sur treize ensembles de données crâne/peau issus d'IRM-3D de têtes d'individus enfants et adultes. Pour chaque reconstruction faciale, deux ensembles crâne/peau correspondant à une tête de référence et à une tête dont la peau est à reconstruire sont sélectionnés selon des caractéristiques anthropologiques similaires. Par cette méthode, nous obtenons des résultats encourageants. Les formes reconstruites restent des visages, visiblement acceptables, et sont relativement proches des visages réels.
APA, Harvard, Vancouver, ISO, and other styles
23

Hachicha, Walid. "Traitement, codage et évaluation de la qualité d’images stéréoscopiques." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132037.

Full text
Abstract:
Les récents développements des technologies de l’imagerie 3D et en particulier la stéréoscopie ont ouvert de nouveaux horizons dans de nombreux domaines d’application tels que la TV 3D, le cinéma 3D, les jeux vidéo et la vidéoconférence. Ces avancées technologiques ont soulevé plusieurs défis aussi bien sur le plan théorique que pratique et en particulier dans le domaine du codage des données 3D. En effet, l’énorme quantité d’information issue des systèmes d’acquisition requiert des solutions efficaces pour la coder et la transmettre. L’objectif de cette thèse est le développement de méthodes pour optimiser les principales étapes de la chaine de traitement et transmission d’images stéréoscopiques. Nous nous limitons dans ce travail au rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques. La première partie de ce travail traite les problèmes d’évaluation et d’amélioration de la qualité d’images stéréoscopiques. Nous nous intéressons d’abord au rehaussement de contraste en s’inspirant des méthodes 2D et en intégrant quelques éléments liés à la perception visuelle. Nous proposons ainsi une première méthode de rehaussement de contraste local basée sur la carte de saillance visuelle. L’aspect qualité est aussi traité selon une approche basée sur les protocoles et méthodes conues pour le cas des images 2D et 3D. Cette méthode exploite les caractéristiques et propriétés connues du système visuel humain (SVH) telles que la non-linéarité, la sensibilité au contraste, la sélectivité directionnelle et fréquentielle ainsi que le seuil de discrimination binoculaire. Nous avons aussi d´eveloppé une méthode de prédiction de la qualité d’images stéréoscopiques sans référence. Cette dernière est basée sur des descripteurs 3D statistiques issus de la scène naturelle afin identifier les distorsions. Ces descripteurs 3D statistiques correspondent aux attributs extraits à partir de la paire stéréo naturelle et de la carte de disparité. L’extraction de ces descripteurs se fait au moyen de l’analyse en ondelettes des images stéréoscopiques. La deuxième partie de cette thèse traite les problèmes de compression d’images stéréoscopiques. Nous avons commencé par l’exploitation de la transformée en cosinus discret unidirectionnel et unidimensionnel pour encoder l’image résiduelle issue de la compensation de disparité. Ensuite, en se basant sur la transformée en ondelettes, nous avons étudié deux techniques pour optimiser le calcul de l’image résiduelle. Enfin, nous avons proposé des méthodes d’allocation de débit pour la compression des images stéréoscopiques. En général, le problème d’allocation de bits est résolu d’une manière empirique en cherchant le débit optimale qui minimise une certaine distorsion. Cependant cette stratégie est complexe. Pour cela, nous avons proposé des méthodes d’allocation de débits, rapides et efficaces appropriées pour le codage en boucle ouverte et en boucle fermée. Cette thèse ouvre des perspectives dans les trois thématiques abordées, à savoir le rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques
Recent developments in 3D stereoscopic technology have opened new horizons in many application fields such as 3DTV, 3D cinema, video games and videoconferencing and at the same time raised a number of challenges related to the processing and coding of 3D data. Today, stereoscopic imaging technology is becoming widely used in many fields. There are still some problems related to the physical limitations of image acquisition systems, e.g. transmission and storage requirements. The objective of this thesis is the development of methods for improving the main steps of stereoscopic imaging pipeline such as enhancement, coding and quality assessment. The first part of this work addresses quality issues including contrast enhancement and quality assessment of stereoscopic images. Three algorithms have been proposed. The first algorithm deals with the contrast enhancement aiming at promoting the local contrast guided by calculated/estimated object importance map in the visual scene. The second and the third algorithms aim at predicting the distortion severity of stereo images. In the second one, we have proposed a fullreference metric that requires the reference image and is based on some 2D and 3D findings such as amplitude non-linearity, contrast sensitivity, frequency and directional selectivity, and binocular just noticeable difference model. While in the third algorithm, we have proposed a no-reference metric which needs only the stereo pair to predict its quality. The latter is based on Natural Scene statistics to identify the distortion affecting the stereo image. The statistic 3D features consist in combining features extracted from the natural stereo pair and those from the estimate disparity map. To this end, a joint wavelet transform, inspired from the vector lifting concept is first employed. Then, the features are extracted from the obtained subbands. The second part of this dissertation addresses stereoscopic image compression issues. We started by investigating a one-dimensional directional discrete cosine transform to encode the disparity compensated residual image. Afterwards, and based on the wavelet transform, we investigated two techniques for optimizing the computation of the residual image. Finally, we present efficient bit allocation methods for stereo image coding purpose. Generally, the bit allocation problem is solved in an empirical manner by looking for the optimal rates leading to the minimum distortion value. Thanks to recently published work on approximations of the entropy and distortion functions, we proposed accurate and fast bit allocation schemes appropriate for the open-loop and closed-loop based stereo coding structures
APA, Harvard, Vancouver, ISO, and other styles
24

Vazquez, Marie-Danielle. "Apport de la reconstruction du mésonéphros segmenté dans l'étude des connexions uro-génitales chez l'homme et la souris." Nancy 1, 1999. http://docnum.univ-lorraine.fr/public/SCD_T_1999_0330_VAZQUEZ.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Jaar, Frédéric. "Reconstruction 3D à l'aide de surfaces à déformations libres." Dijon, 1999. http://www.theses.fr/1999DIJOS054.

Full text
Abstract:
Cette thèse porte sur la création d'un modèle de déformation de surface. L'objectif de nos travaux est de présenter un modèle géométrique complet (de représentation et de déformation de surface) qui puisse être intégré dans une application telle qu'un modeleur. Dans une première partie, nous procédons a une présentation des différents modèles de surfaces, avec pour chacun d'eux leurs avantages et leurs inconvénients face à nos besoins. Ensuite nous étudions l'ensemble des modèles de déformations qui peuvent être appliqués à ces surfaces. Apres cet état de l'art, nous présentons notre modèle élastique de déformation de surface B-spline bicubique. Notre surface de type « Patchwork » est un assemblage de surfaces uniformes, que nous appelons les motifs. Pour une exploitation performante de cette structure hiérarchique, nous l'associons à une représentation arborescente à l'aide d'un alphabet. Ensuite notre surface est introduite dans un modèle énergétique de déformation, ce qui nous permet d'agir sur elle. Enfin nous présentons toute une palette d'outils de déformation, dont le profileur qui permet de modeler l'ensemble ou une partie d'une surface en fonction d'une autre. Nous terminons ce document par la présentation de différentes applications dans lesquelles notre modèle a été intégré.
APA, Harvard, Vancouver, ISO, and other styles
26

Conil, Frédéric. "Développements instrumentaux et expérimentation en endoscopie sismique." Rennes 1, 2003. http://www.theses.fr/2003REN10164.

Full text
Abstract:
L'endoscopie sismique est une méthode d'imagerie acoustique tridimensionnelle du voisinage de forages de faible diamètre. La première partie de ce travail de thèse concerne la conception d'un instrument de terrain réalisant des images avec une directivité azimutale et une résolution centimétrique. Des simulations numériques associées à des tests expérimentaux ont permis d'optimiser la construction d'un outil multi-azimuts et multi-offsets. Dans une deuxième partie, nous nous intéressons à l'optimisation de signaux acoustiques non linéaires, en temps réel, par la méthode du recuit simulé. Des applications sont proposées pour adapter la bande de fréquence de l'outil aux méthodes de traitement sismique et dans le cadre de l'étude de la réflectivité de milieux granulaires ou rugueux. Enfin, en complément des traitements classiques de sismique, une dernière partie est consacrée à la mise au point d'algorithmes spécifiques liés à la géométrie d'acquisition de la sonde.
APA, Harvard, Vancouver, ISO, and other styles
27

Appadoo, Owen Kevin. "Recherches et expérimentations artistiques en images numériques à base d'interférences : concevoir des personnages tridimensionnels grâce aux illusions visuelles des franges d'interférence volontairement perturbées." Phd thesis, Paris 8, 2006. http://octaviana.fr/document/119079542#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
La capacité à concevoir dans l’abstraction fait appel à la faculté qu’a notre cerveau de combler ce qui n’est pas visible par l’image la plus proche. Cela crée alors une illusion visuelle et l’imagination apporte ensuite à l’esprit des images mentales. Mes recherches consistent à présenter un concept artistique à base d’interférences et d’illusions pour créer des personnages tridimensionnels. Aussi cette thèse est-elle composée de deux parties. La première partie, théorique, est une étude globale sur les propriétés de la lumière, l’optique et la méthode de création des interférences. Dans la deuxième partie j’aborde la pratique en expliquant tout le processus mis en œuvre pour concevoir des personnages tridimensionnels grâce aux illusions visuelles issues des franges d’interférence volontairement perturbées
The ability to conceive in total abstraction calls upon the faculty that has our brain to fill what is not visible by the nearest image. That creates a visual illusion and then our imagination bring forward mental images. My research consists in presenting an artistic concept using interferences and illusions to create three-dimensional characters. Also this thesis is composed in two sections. The first section is a general study on the properties of light, optical and the method to create interferences. The second section is based on my practical work. I explain, step by step, how to conceive three-dimensional characters due to visual illusions obtained through interference rings disturbed on purpose
APA, Harvard, Vancouver, ISO, and other styles
28

Dosch, Philippe. "Un environnement pour la reconstruction 3D d'édifices à partir de plans d'architecte." Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0066_DOSCH.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'analyse de documents, et porte plus précisément sur la reconnaissance de graphiques. Notre objectif est d'obtenir un modèle 3D d'un édifice à partir de ses plans d'architecte. Pour cela, nous avons intégré des modules d'analyse et une interface homme-machine (IHM) permettant à l'operateur de contrôler les traitements à effectuer de manière optimale. La majeure partie de la these détaille les différents traitements mis en œuvre, du bas-niveau (sur des images de plans numérisés) jusqu'au haut-niveau (sur des données vectorisées). Nous décrivons les choix d'architecture logicielle qui nous ont menés à définir un système composé de trois couches hiérarchiques : une bibliothèque de composants logiciels, une couche applicative regroupant les différents outils de traitement d'images et de graphiques et l'IHM. Celle-ci permet d'interagir directement sur les données, de contrôler le déroulement de l'analyse et gérer le dialogue homme-machine. Dans ce travail d'équipe, nos contributions principales portent sur l'organisation spatiale des traitements (tuilage), l'extraction d'indices de niveau intermédiaire (lignes tiretées, symboles tels que les cages d'escalier), la mise en correspondance des étages pour la reconstruction 3D du bâtiment correspondant, l'intégration logicielle et la mise au point de tout l'aspect IHM
This thesis is in line with the field of document analysis, and more precisely deals with graphics recognition. Our purpose is the construction of a 3D model of a building from the architectural drawings of its f1oors. For that, we have a set of analysis modules and a graphical user interface (GUI) allowing a human operator to control the processings to be pelformed in an optimal way. The major part of this thesis describes the various processings implemented, from the low-level (bitmap images processings) to the high-Ievel (vectorized data processings). We describe the choices which have led us to define a threelayered software architecture, hierarchally organized: A library of software components, an applicative layer grouping the various processings together and the GUI. The latter allows to directly interact on data to control the the analysis, and manages the man-machine cooperation. All the members of our research teams have been involved in this work, but our main contributions concem the design of the GUI, the spatial organization of processings (tiling), the extraction of middle-level features (dashed and dotted lines, symbols such as stairwell, etc. ) and matching algorithms to construct the 3D structure of a building, as weil as the software integration and the design of the GUI
APA, Harvard, Vancouver, ISO, and other styles
29

Kadaikar, Aysha-Khatoon. "Optimization of the Rate-Distortion Compromise for Stereoscopic Image Coding using Joint Entropy-Distortion Metric." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD083/document.

Full text
Abstract:
Ces dernières décennies ont vu émerger de nombreuses applications utilisant la technologie 3D, telles que les écrans auto-stéréoscopiques, les écrans de télévisions 3D ou encore la visio-conférence stéréoscopique. Ces applications requièrent des techniques adaptées afin que leur flux de données soit compressé efficacement. En particulier, dans le cas des images stéréoscopiques, ces dernières étant composées de deux vues de la même scène, elles nécessitent à ce titre deux fois plus d’informations à transmettre ou à stocker que dans le cas des images 2D traditionnelles. Nos travaux se situent dans le cadre de la compression des images stéréoscopiques. Plus précisément, ils concernent l’amélioration de l’estimation de la carte de disparité dans le but d’obtenir un meilleur compromis entre le débit binaire nécessaire au codage de la carte de disparité et la qualité de l’image prédite.Généralement, la carte de disparité est estimée en minimisant la distorsion de l’image prédite. Cette minimisation peut être sujette à une contrainte de lissage. L’idée étant qu’une carte de disparité plus lisse nécessitera un débit binaire moindre en supposant que les mêmes vecteurs de disparités seront sélectionnés plus souvent. Néanmoins cette contrainte de lissage ne permet pas toujours de diminuer le coût binaire de la carte. Le lissage peut entraîner par ailleurs une augmentation notable de la distorsion de l’image prédite. Dans le premier chapitre de la thèse, nous présentons un algorithme d’estimation de carte de disparité minimisant une métrique conjointe entropie-distorsion. Le coût binaire finale de la carte de disparité est estimée à chaque étape de l’algorithme et est intégré dans le calcul de la métrique. La distorsion globale de la carte de disparité est aussi mise à jour au fur et à mesure du traitement de l’image. Par ailleurs, cette algorithme repose sur la construction séquentiel d’un arbre dont on ne garde qu’un nombre défini de branches à chaque profondeur de l’arbre. Ainsi, l’algorithme développé apporte une solution sous-optimale en minimisant le coût binaire de la carte de disparité tout en assurant une bonne qualité de l’image prédite. Le chapitre deux étend l’algorithme précédent au cas des images non rectifiées. Dans le troisième chapitre, nous nous intéressons au fait de trouver une solution au problème d’optimisation du compromis débit-distorsion en réduisant la complexité numérique par rapport à l’algorithme précédent. De ce fait, nous avons développé le R-algorithme qui se base sur une solution initiale de Référence (celle minimisant la distorsion de l’image prédite) et la modifie successivement tant qu’une amélioration est constatée en termes de compromis débit-distorsion. Le quatrième chapitre s’intéresse toujours au fait d’accroître les performances de l’algorithme développé tout en réduisant le coût en complexité numérique et donc en temps de traitement. Nous proposons deux approches afin de tirer profit d’un grand espace de recherche sans avoir à tester pour chaque bloc à apparier l’ensemble des disparités qui composent cet espace de recherche. En effet, un espace de recherche plus grand permet plus de choix de disparités et donc potentiellement une meilleur reconstruction de l’image prédite. En contrepartie, il se peut que le coût binaire de la carte de disparité augmente si l’ensemble des disparités sélectionnées constituent un ensemble plus divers qu’auparavant. Les deux approches proposées permettent de restreindre l’espace de recherche à un ensemble composées de certaines disparités permettant de minimiser la distorsion de l’image prédite pour un débit donné. Le dernier chapitre de la thèse s’intéresse à l’utilisation des blocs de taille variable pour la compression des images stéréoscopiques
During the last decades, a wide range of applications using stereoscopic technology has emerged still offering an increased immersion to the users such as video games with autostereoscopic displays, 3D-TV or stereovisio-conferencing. The raise of these applications requires fast processing and efficient compression techniques. In particular, stereoscopic images require twice the amount of information needed to transmit or store them in comparison with 2D images as they are composed of two views of the same scene. The contributions of our work are in the field of stereoscopic image compression and more precisely, we get interested in the improvement of the disparity map estimation. Generally, disparities are selected by minimizing a distortion metric which is sometimes subjected to a smoothness constraint, assuming that a smooth disparity map needs a smaller bitrate to be encoded. But a smoother disparity map does not always reduce significantly the bitrate needed to encode it but can increase the distortion of the predicted view. Therefore, the first algorithm we have proposed minimizes a joint entropy-distortion metric to select the disparities. At each step of the algorithm, the bitrate of the final disparity map is estimated and included in the metric to minimize. Moreover, this algorithm relies on a tree where a fixed number of paths are extended at each depth of the tree, ensuring good rate-distortion performance. In the second part of the work, we have proposed a sub-optimal solution with a smaller computational complexity by considering an initial solution -the one minimizing the distortion of the predicted view- which is successively modified as long as an improvement is observed in terms of rate-distortion. Then, we have studied how to take advantages of large search areas in which the disparities are selected as one can easily supposed that enlarging the search area will increase the distortion performance as there will be more choices of disparities. In the other hand, the larger is the range of the selected disparities, the higher is supposed to be the cost of the disparity map in terms of bitrate. We have proposed two approaches allowing to take advantage of a large search area by selecting only sets of disparities belonging to it enabling to achieve a given bitrate while minimizing the distortion of the predicted image. The last part of the work concerns variable block sizes which undeniably allows to improve the bitrate-distortion performance as the block size suits to the image features. We have thus proposed a novel algorithm which jointly estimates and optimizes the disparity and the block length maps
APA, Harvard, Vancouver, ISO, and other styles
30

Gouet-Brunet, Valérie. "Mise en correspondance d'images en couleur : Application à la synthèse de vues intermédiaires." Montpellier 2, 2000. http://www.theses.fr/2000MON20120.

Full text
Abstract:
La mise en correspondance d'images est une etape cle pour un grand nombre d'applications de vision par ordinateur. Parmi toutes les approches existantes en niveau de gris, les methodes iconiques fournissent les resultats les plus probants. Cependant, aucune d'entre elles ne tire profit de la richesse de la couleur, alors que leur essence meme est d'exploiter au maximum l'information contenue dans le signal de l'image. La principale contribution des travaux developpes dans ce memoire consiste alors a mettre en place une methode de mise en correspondance plus robuste que celles rencontrees jusqu'a ce jour, en mettant en jeu l'information supplementaire que contiennent les images en couleur. Cette approche est innovante a plusieurs niveaux du processus d'appariement. Ainsi, nous presentons dans un premier traitement une classe de detecteurs de points d'interet specifique a la couleur. Deux nouveaux operateurs sont proposes, evalues et se revelent plus stables que les detecteurs jusqu'alors connus en niveau de gris. La couleur nous permet egalement de mettre en place une methode de caracterisation de ces points, locale et robuste. Celle-ci est basee sur les invariants differentiels de hilbert calcules seulement a l'ordre un, grace a l'apport de l'information couleur. Elle est donc invariante aux transformations euclidiennes de l'image ; nous proposons egalement une methode originale qui la rend invariante aux changements d'illumination. La forte combinatoire des methodes d'appariement classiques rendent ces dernieres inexploitables avec beaucoup de points. Nos travaux consistent en outre a integrer les primitives couleur ainsi caracterisees dans un nouveau processus de mise en correspondance, rendu efficace face aux grands ensembles
APA, Harvard, Vancouver, ISO, and other styles
31

Toulminet, Gwenaëlle. "Extraction des contours 3D des obstacles par stéréovision pour l'aide à la conduite automobile." INSA de Rouen, 2002. http://www.theses.fr/2002ISAM0011.

Full text
Abstract:
Dans le cadre de la conception d'un capteur de vision 3D pour l'aide à la conduite automobile, nous avons conçu une méthode d'extraction rapide, robuste et fiable des contours 3D des obstacles. Dans une première étape, nous améliorons les cartes 3D éparses construites à partir de paires d'images stéréoscopiques. L'amélioration des cartes 3D éparses consiste à détecter et à corriger les faux appariements de mise en correspondance. Pour cela, nous appliquons un critère de continuité sur des courbes 3D de contour préalablement construites, et nous supposons que la majorité des points 3D des courbes 3D sont les résultats d'appariements corrects de mise en correspondance. Dans une deuxième étape, les contours 3D des obstacles sont extraits à partir des courbes 3D améliorées, ce qui permet de réduire la sensibilité de la méthode aux faux appariements de mise en correspondance. De plus, l'extraction des contours 3D des obstacles a été conçue de manière à réduire sa sensibilité au bruit stochastique et à une modélisation et une détection approximative du plan de la route : cette extraction est une coopération de deux méthodes d'extraction des contours 3D des obstacles qui n'ont pas la même sensibilité et qui sont utilisées de manière complémentaire. La robustesse et la fiabilité de l'extraction des contours 3D des obstacles sont étudiées à partir de scènes routières réelles dont les conditions de visibilité sont différentes. Une partie de ces travaux a été réalisée dans le cadre d'une action intégrée franco-italienne GALILEE 2000 en collaboration avec le Dipartimento di Ingegneria dell'Informazione de l'Université de Parme.
APA, Harvard, Vancouver, ISO, and other styles
32

Yahiaoui, Tarek. "Une approche de stéréovision dense intégrant des contraintes de similarité : application au comptage des passagers entrant et sortant d'un autobus." Lille 1, 2007. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2007/50376-2007-33.pdf.

Full text
Abstract:
Pour une bonne adaptation de l'offre à la demande, l'exploitant doit avoir une connaissance aussi précise que possible sur la population qui emprunte son système de transport. Autrement dit, il est nécessaire de mesurer en permanence les flux de passagers en différents points d'un rèseau de transport afin de connaître les fréquentations des différents trajets pouvant être empruntés par les usagers. Dans cette thèse, nous nous intéressons particulièrement à l'estimation des flux de passagers empruntant un réseau d'autobus. Pour répondre à cette problématique, nous proposons un système de comptage exploitant la stéréovision. Cette technique particulière relevant de la vision artificielle correspond à la vision passive du relief obtenue au moyen de deux caméras observant simultanément la scène. Pour extraire l'information tridimensionnelle de façon fiable et précise, nous avons développé une approche de mise en correspondance exploitant plusieurs critères de similarité entre les pixels à apparier et leurs homologues ou entre leurs voisinages. Parmi ces critères, nous tenons compte du mouvement des personnes observées. Après que les personnes aient été mises en évidence, nous combinons des opérations morphologiques et une binarisation à seuils multiples afin de décrire leur tête par un marqueur. Les marqueurs décrivant les têtes des passagers franchissant les portes de l'autobus sont alors suivis durant la séquence d'images afin de reconstituer les trajectoires de ces derniers. Enfin, une dernière étape de traitement permet de déduire un comptage des personnes à partir des trajectoires reconstituées. La technique proposée a été validée par plusieurs expérimentations, menèes en laboratoire et dans un autobus en exploitation. Les séquences ont été acquises afin de décrire le plus fidèlement possible les différentes situations qui doivent être gérées par le système: personnes isolées, foules, etc. . . Sur les données acquises, qui constituent un ensemble représentatif de toutes ces situations, nous avons montré qu'on peut obtenir un comptage des passagers avec une erreur inférieure à 1 %.
APA, Harvard, Vancouver, ISO, and other styles
33

Lambert, de Cambray Béatrix. "Etude de la modélisation de la manipulation et de la représentation de l'information spatiale tridimensionnelle dans les bases de données géographiques." Paris 6, 1994. http://www.theses.fr/1994PA066518.

Full text
Abstract:
De plus en plus de domaines d'application des systèmes d'information géographique ont besoin de gérer l'information spatiale 3D. Cette thèse traite la modélisation, la représentation et la manipulation de l'information spatiale 3D (c'est-à-dire de l'information géographique localisée dans un espace 3D) dans les bases de données géographiques. Cependant, les données saisies dans une base de données géographique peuvent être définies dans une dimension autre que 3D, bien qu'elles reflètent des données géographiques réelles qui sont, elles, situées dans un espace 3D. Afin de résoudre ce problème, cette thèse propose de modéliser les relations spatiales selon l'axe z entre objets géographiques. Ces relations permettent de plonger toute donnée géographique dans l'espace 3D. De plus, grâce à ces relations et aux descriptions géométriques, le modèle de manipulation de données est capable, pour chaque donnée, de dériver sa représentation à la dimension attendue par une opération spatiale à partir de celle stockée dans la base de données. Cette thèse propose un modèle de données multidimensionnel unifié qui intègre les données du relief (données 2. 5D) avec les données spatiales 2D et 3D. Elle propose aussi une extension du langage de requêtes sql aux données géographiques multidimensionnelles
APA, Harvard, Vancouver, ISO, and other styles
34

Kadri, Imen. "Controlled estimation algorithms of disparity map using a compensation compression scheme for stereoscopic image coding." Thesis, Paris 13, 2020. http://www.theses.fr/2020PA131002.

Full text
Abstract:
Ces dernières années ont vu apparaître de nombreuses applications utilisant la technologie 3D tels que les écrans de télévisions 3D, les écrans auto-stéréoscopiques ou encore la visio-conférence stéréoscopique. Cependant ces applications nécessitent des techniques bien adaptées pour comprimer efficacement le volume important de données à transmettre ou à stocker. Les travaux développés dans cette thèse concernent le codage d’images stéréoscopiques et s’intéressent en particulier à l'amélioration de l'estimation de la carte de disparité dans un schéma de Compression avec Compensation de Disparité (CCD). Habituellement, l'algorithme d’appariement de blocs similaires dans les deux vues permet d’estimer la carte de disparité en cherchant à minimiser l’erreur quadratique moyenne entre la vue originale et sa version reconstruite sans compensation de disparité. L’erreur de reconstruction est ensuite codée puis décodée afin d’affiner (compenser) la vue prédite. Pour améliorer la qualité de la vue reconstruite, dans un schéma de codage par CCD, nous avons prouvé que le concept de sélectionner la disparité en fonction de l'image compensée plutôt que de l'image prédite donne de meilleurs résultats. En effet, les simulations montrent que notre algorithme non seulement réduit la redondance inter-vue mais également améliore la qualité de la vue reconstruite et compensée par rapport à la méthode habituelle de codage avec compensation de disparité. Cependant, cet algorithme de codage requiert une grande complexité de calculs. Pour remédier à ce problème, une modélisation simplifiée de la manière dont le codeur JPEG (à savoir la quantification des composantes DCT) impacte la qualité de l’information codée est proposée. En effet, cette modélisation a permis non seulement de réduire la complexité de calculs mais également d’améliorer la qualité de l’image stéréoscopique décodée dans un contexte CCD. Dans la dernière partie, une métrique minimisant conjointement la distorsion et le débit binaire est proposée pour estimer la carte de disparité en combinant deux algorithmes de codage d’images stéréoscopiques dans un schéma CCD
Nowadays, 3D technology is of ever growing demand because stereoscopic imagingcreate an immersion sensation. However, the price of this realistic representation is thedoubling of information needed for storage or transmission purpose compared to 2Dimage because a stereoscopic pair results from the generation of two views of the samescene. This thesis focused on stereoscopic image coding and in particular improving thedisparity map estimation when using the Disparity Compensated Compression (DCC)scheme.Classically, when using Block Matching algorithm with the DCC, a disparity mapis estimated between the left image and the right one. A predicted image is thencomputed.The difference between the original right view and its prediction is called theresidual error. This latter, after encoding and decoding, is injected to reconstruct theright view by compensation (i.e. refinement) . Our first developed algorithm takes intoaccount this refinement to estimate the disparity map. This gives a proof of conceptshowing that selecting disparity according to the compensated image instead of thepredicted one is more efficient. But this done at the expense of an increased numericalcomplexity. To deal with this shortcoming, a simplified modelling of how the JPEGcoder, exploiting the quantization of the DCT components, used for the residual erroryields with the compensation is proposed. In the last part, to select the disparity mapminimizing a joint bitrate-distortion metric is proposed. It is based on the bitrateneeded for encoding the disparity map and the distortion of the predicted view.This isby combining two existing stereoscopic image coding algorithms
APA, Harvard, Vancouver, ISO, and other styles
35

Song, Qiang. "Design of synthetic diffractive structures for 3D visualization applications and their fabrication by a novel parallel-write two-photon polymerization process." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0199.

Full text
Abstract:
Les éléments optiques diffractifs (EOD) sont maintenant largement utilisés dans les applications universitaires et industrielles grâce à leurs caractéristiques ultra-minces et compactes et à leur très flexible manipulation des fronts d'ondes lumineuses. Malgré ces excellentes propriétés, la portée d'application des EOD est souvent limitée par le fait que la plupart des DOE sont conçus pour générer uniquement des motifs projetés en 2D, et plus important encore, pour être utilisés uniquement avec des sources laser monochromatiques, cohérentes, souvent collimatées. Les contraintes de coût et de sécurité oculaire des sources laser limitent fortement les applications de visualisation des EOD telles que les hologrammes de sécurité, et la nature 2D des motifs générés limite les applications de réalité virtuelle ou augmentée. Pour surmonter ces restrictions, cette thèse vise la conception et la fabrication de structures diffractives 3D sélectives en longueur d'onde qui peuvent produire un objet 3D "flottant" perçu à plusieurs angles de vue derrière le substrat EOD lorsqu'il est éclairé par des sources LED blanches facilement disponibles et bon marché. Dans une première approche, nous développons et validons expérimentalement une série de nouveaux algorithmes de conception pour des structures EOD conventionnelles, optiquement "minces" sous un éclairage incohérent et divergent ; d'abord pour projeter des motifs 2D, puis pour créer des images 2D virtuelles et enfin des motifs 3D virtuels. Dans un deuxième temps, nous exploitons les capacités des structures optiquement "épaisses" de type Bragg pour introduire une sélectivité spectrale (vers des modèles de sortie de couleur) et améliorer l'efficacité de la diffraction. Comme l'approximation des éléments minces n'est pas valable pour la conception de structures photoniques 3D optiquement épaisses, nous développons un algorithme d'optimisation des essaims de particules basé sur un modèle de diffraction rigoureux pour concevoir des structures diffractives synthétiques optiquement épaisses très innovantes. La fabrication rentable de ces structures micro et nano-photoniques entièrement 3D proposées est très difficile lorsqu'on utilise les techniques lithographiques traditionnelles actuelles qui sont généralement limitées, en pratique, à la fabrication de structures 2D ou 2,5D. À cette fin, le département d'optique de l'IMT Atlantique met actuellement au point un prototype avancé de photoplotter de polymérisation à deux photons massivement parallélisés (2PP) pour la fabrication de structures photoniques entièrement tridimensionnelles de grande surface. Nous présentons nos contributions à la conception et au développement des modules d'illumination critiques et de haute uniformité pour le nouveau prototype de photoplotteur 2PP. La recherche et le développement de cette thèse contribuent à l'élargissement des applications de l'EOD à des domaines actuellement inaccessibles. Les méthodes de conception développées peuvent également trouver des applications dans des domaines d'affichage holographique tels que la réalité augmentée automobile
Diffractive Optical Elements (DOEs) are now widely used in academic and industrial applications due to their ultrathin, compact characteristics and their highly flexible manipulation of light wave-fronts. Despite these excellent properties, the scope of DOE applications is often limited by the fact that most DOEs are designed to generate only 2D projected patterns, and even more importantly, for use only with monochromatic, coherent, often collimated, laser sources. The cost and eye safety constraints of laser sources severely restrict DOE visualisation applications such as security holograms, and the 2D nature of the generated patterns limits virtual or augmented reality applications. To overcome these restrictions, this thesis targets the design and fabrication of wavelength selective 3D diffractive structures which can produce a perceived multiple view-angle “floating” 3D object behind the DOE substrate when illuminated by readily available and cheap white LED sources. In an initial approach we develop and experimentally validate a series of novel design algorithms for conventional optically “thin” DOE structures under incoherent, divergent illumination; first to project 2D patterns, then to create virtual 2D images and finally virtual 3D patterns. In a second stage, we leverage the capacities of optically “thick”, Bragg-like structures to introduce spectral selectivity (towards colour output patterns) and improve diffraction. Since the thin element approximation is invalid when designing optically thick 3D photonic structures we develop a particle swarm optimization algorithm based on a rigorous diffraction model to design highly innovative optically thick synthetic diffractive structures. The cost-effective fabrication of such proposed fully 3Dmicro- and nano-photonics structures is highly challenging when using current traditional lithographic techniques which are generally limited, in practice, to the fabrication of 2D or 2.5D structures. To this end, an advanced prototype massively parallelized two-photon polymerization (2PP) photoplotter for the fabrication of large area fully 3D photonic structures is currently being developed by the IMT Atlantique Optics Department. We present our contributions to the design and development of the critical, high uniformity illumination modules for the new prototype 2PP photoplotter. The research and development in this thesis contributes to the broadening of DOE applications to fields which are currently inaccessible. The developed design methods can also find applications in holographic display fields such as automotive augmented reality
APA, Harvard, Vancouver, ISO, and other styles
36

Schwartz, Cédric. "Contribution à l'élaboration d'un espace commun de représentation pour l'analyse morpho-fonctionnelle du membre supérieur : application à l'articulation glénohumérale." Brest, 2009. http://www.theses.fr/2009BRES2016.

Full text
Abstract:
La compréhension des dysfonctionnements locomoteurs est limitée par l'absence de technologie permettant l'analyse dynamique des structures internes et en particulier des segments osseux. Les imageurs tridimensionnels donnent accès à une description précise mais statique de la morphologie osseuse. Les systèmes d'analyse du mouvement par marqueurs externes fournissent quant à eux une information dynamique mais potentiellement empreinte d'erreurs relativement importantes en raison de la présence de tissus mous entre les os et la peau. Dans un premier temps, une étude a été menée pour proposer une méthode de correction des artéfacts des tissus mous lors de l'estimation du mouvement. Une approche surfacique est décrite. Cette méthode repose sur le suivi de la déformation, induite par le déplacement de l'omoplate, d'une nappe de marqueurs à la surface de la peau. Le suivi est réalisé par un algorithme de recalage robuste, l'IMCP. Cet algorithme, développé dans des travaux précédents, a été modifié et adapté de manière à prendre en compte le contexte de l'étude. Les améliorations ont principalement consisté en un post-traitement des données afin d'exploiter au maximum les capacités de mutualisation de l'information de l'algorithme, la prise en compte de l'influence des bords de la nappe de marqueurs et enfin l'optimisation du temps de calcul. Dans un second temps, afin de réaliser une étude morpho-fonctionnelle dans un espace commun de représentation, un protocole spécifique d'acquisition IRM a été mis en place. Celui-ci a pour objectif le recalage des repères locaux propres à l'acquisition morphologique et à celle du mouvement. Analyse morpho-fonctionnelle de l'articulation glénohumérale, dans le cas de mouvements empreints d'erreurs, a également nécessité le développement de mesures quantifiant la cohérence articulaire. Les résultats obtenus montrent que l'utilisation d'une nappe de marqueurs recouvrant l'omoplate à la surface de la peau ne permet pas le suivi de l'empreinte de l'os. L'étude sur des simulations conduisent à avancer 2 hypothèses pour expliquer ces résultats : le bruit crée par les tissus mous est trop important et / ou la résolution de la surface de la peau disponible est insuffisante. L'intérêt de tendre vers des méthodes d'acquisition sans marqueurs est ainsi également mis en évidence. L'analyse morpho-fonctionnelle a, quant à elle, mis en évidence l'influence du protocole d'acquisition utilisé sur la cohérence articulaire lors de l'animation des os. Le choix du positionnement des marqueurs sur l'omoplate et sur l'humérus ainsi que la méthode de traitement employée pour reconstruire le mouvement ont ainsi une influence significative sur l'estimation du mouvement des structures osseuses.
APA, Harvard, Vancouver, ISO, and other styles
37

Ciullo, Vito. "Measurements of wildland fires by drone." Thesis, Corte, 2020. http://www.theses.fr/2020CORT0005.

Full text
Abstract:
Les travaux menés dans cette thèse concernent le développement d’un dispositif de mesure des caractéristiques géométriques de feux de végétation en utilisant un système de stéréovision multimodale porté par drone. A partir d’images stéréoscopiques aériennes acquises dans les domaines du visible et de l’infrarouge, les points 3D de feux sont calculés et les caractéristiques géométriques tels que sa position au sol, vitesse de propagation, hauteur, longueur, largeur, inclinaison de flamme et surface sont estimées.La première contribution importante de cette thèse est le développement d’un système de stéréovision multimodale portable par drone. Ce dispositif intègre des caméras travaillant dans les domaines du visible et de l’infrarouge, un ordinateur Raspberry Pi, des batteries électriques, des récepteurs GPS et une carte inertielle. Il permet d’obtenir des images stéréoscopiques multimodales géoréférencées.La seconde contribution importante de cette thèse est la méthode d’estimation des caractéristiques géométriques de feux à partir d’images stéréoscopiques aériennes.Le dispositif d’estimation de caractéristiques géométriques a été évalué en utilisant une voiture de dimensions connues et les résultats obtenus confirment la bonne précision du système. Il a été également testé avec succès sur un feu extérieur ne se propageant pas. Les résultats obtenus pour des feux de végétation se propageant sur un terrain de pente variable sont présentés en détail
This thesis presents the measurement of geometrical characteristics of spreading vegetation fires with a multimodal stereovision system carried by an Unmanned Aircraft Vehicle.From visible and infrared stereoscopic images, 3D fire points are computed and fire geometrical characteristics like position on the ground, rate of spread, height, length, width, flame tilt angle and surface are estimated.The first important contribution of this thesis is the development of a multimodal stereovision portable drone system. This device integrates cameras working in the visible and infrared domains, a Raspberry Pi computer, electric batteries, GPS receptors and an Inertial Measurement Unit. It allows to obtain georeferenced stereoscopic multimodal images.The second important contribution of this thesis is the method for the estimation of the fire geometrical characteristics from aerial stereoscopic images.The geometrical characteristics estimation framework have been evaluated on a car of known dimensions and the results obtained confirm the good accuracy of the device. It was also successfully tested on an outdoor non propagating fire. The results obtained from vegetation fires propagating on terrain with slope changes are presented in detail
APA, Harvard, Vancouver, ISO, and other styles
38

Halawana, Hachem. "Dématriçage partiel d’images CFA pour la mise en correspondance stéréoscopique couleur." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10149/document.

Full text
Abstract:
La mise en correspondance stéréoscopique consiste à retrouver dans les images couleur gauche et droite les primitives homologues. Dans ce but, des mesures de similarité entre les pixels dans une paire d’images sont calculées. Un coût de correspondance est généralement calculé à chaque pixel de l’image gauche pour tous les décalages dans un champ prédéfini, c'est à dire pour un ensemble limité de pixels candidats dans l’image droite. Ensuite, le pixel candidat qui minimise le coût est retenu et sa position donne la disparité. Les coûts de mise en correspondance supposent que les pixels homologues ont presque les mêmes composantes couleur. Les composantes couleur sont dégradées par le dématriçage quand les images couleur ont été acquises par un caméra équipée d'un seul capteur. L'idée est de tenter une mise en correspondance directement à partir des images CFA. De cette façon, il serait possible de travailler sur des intensités de couleurs dont on est sûr. Le fait de travailler sur les images CFA soulève différents problèmes. Tout d'abord, le nombre d'informations est considérablement réduit par rapport à une image couleur idéale: nous en avons trois fois moins. Il faut donc que nous travaillions avec des outils capables de pallier cette carence. Ensuite, rien ne nous permet d'affirmer que des pixels homologues vont être codés dans des couleurs similaires dans les deux images stéréoscopiques CFA. Nous suggérons d'estimer partiellement les éléments manquants et ensuite de mettre en correspondance les pixels. Nous avons prouvé que ce dématriçage partiel donne de meilleurs résultats que le dématriçage total
Most color stereovision setups include single-sensor cameras which provide Color Filter Array (CFA) images. In those images, a single color component is sampled at each pixel rather than the three required ones (R,G,B). We show that standard demosaicing techniques, used to determine the two missing color components, are not well adapted when the resulting color pixels are compared for estimating the disparity map. In order to avoid this problem while exploiting color information, we propose a partial demosaicing designed for dense stereovision based on pairs of Bayer CFA images. Finally, experimental results obtained with benchmark stereo image pairs show that stereo matching applied to partially demosaiced images outperforms stereo matching applied to standard demosaiced images
APA, Harvard, Vancouver, ISO, and other styles
39

Ardouin, Jérôme. "Contribution to the study of visualization of real and virtual environments with an extended field-of-view." Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0024/document.

Full text
Abstract:
Qui n’a jamais souhaité avoir des yeux derrière la tête ? Cette thèse propose d’étudier l’extension du champ visuel humain, que ce soit dans le monde réel ou dans un environnement virtuel. Nous avons d’abord conçu FlyVIZ, un dispositif qui permet d’augmenter le champ visuel. Il est composé d’une caméra catadioptrique, d’un visiocasque et d’un algorithme de traitement d’image. Lorsqu’un utilisateur porte ce dispositif, il dispose d’une vue à 360 degrés de son environnement. Le prototype a été testé avec succès dans différents scenarios, comme attraper un objet tendu dans le dos sans tourner la tête, ou passer des portes en marchant à reculons. Ensuite nous avons proposé une nouvelle méthode pour le rendu d’environnements virtuels, avec un champ visuel étendu, et en temps réel. Pour résoudre les problèmes dus à l’utilisation de projections non planes, nous avons ajouté une nouvelle étape dans le pipeline graphique. Notre méthode a ensuite été adaptée au rendu stéréoscopique avec un champ visuel de 360°. Nous avons mené une évaluation préliminaire sur l’utilisation d’un champ visuel étendu appliqué à une tache de navigation dans des environnements virtuels. Nos résultats semblent confirmer que l’utilisation d’un champ visuel étendu permet une navigation plus efficace, en diminuant le temps moyen pour effectuer une tache. Parmi les différentes projections non planes testées, une préférence pour les projections équirectangulaire et de Hammer a été exprimée. Nous avons également traité le problème de conflit d’indice de profondeurs rencontré dans les images stéréoscopiques lorsqu’un objet affiché en parallaxe négative est partiellement occulté par un bord du support d’affichage. Nous avons proposé SCVC (Stereoscopy Compatible Volume Clipping, le découpage de la scène selon le volume compatible avec la stéréoscopie) pour résoudre ce problème en n’affichant que la partie de l’espace qui n’est pas sujette au conflit d’indice de profondeur. La méthode a été évaluée et les résultats ont montrés que SCVC améliore significativement la perception de la profondeur et que les utilisateurs expriment une préférence pour cette méthode. L’extension du champ visuel humain ouvre de nouvelles perspectives pour l’exploration ou la surveillance de l’environnement d’un utilisateur. Cette extension pourrait bénéficier à diverses applications, que ce soit dans le contexte d’un environnement réel ou virtuel. Pour la sécurité des personnes ou la défense, des pompiers, des policiers ou des soldats pourraient tirer avantage d’un champ visuel étendu. Ce type de visualisation peut également profiter à l’exploration rapide d’environnements virtuels ou à la recherche d’objet dans ces derniers
Who have never wanted to have eyes in the back of his head? This doctoral thesis proposes to study the extension of the human field-of-view (FoV) in both real and virtual environments. First we have designed FlyVIZ, a new device to increase the human FoV. It is composed of a helmet, combining a catadioptric camera, a HMD and an image processing algorithm. Wearing this device allows a user to experience 360° vision of its surroundings. The prototype is demonstrated through scenarii such as grasping an object held out behind their back without turning their head or walking backward through doorways. Then we have proposed a novel method to render virtual environments with wide FoV in real-time. To solve the rendering issue induced by usage of non-planar projections, we introduce a special stage in real-time rendering pipeline. Our method was then adapted for real-time stereoscopic rendering with 360° FoV. We have conducted a preliminary evaluation of real-time wide FoV rendering for a navigation task in virtual reality. Our results confirm that using a wide FoV rendering method could lead to more efficient navigation in terms of average task completion time. Among the different tested non-planar projection methods, the subjective preference is given to equirectangular and Hammer projections. We also address the problem of frame cancellation, generated by the conflict between two depth cues: stereo disparity and occlusion with the screen border. We have proposed the Stereoscopy Compatible Volume Clipping (SCVC), solving the problem by rendering only the part of the viewing volume free of disparity - frame occlusion conflict. The method was evaluated and results have shown that SCVC notably improved users’ depth perception and that the users expressed preference for SCVC. Wide FoV opens novel perspectives for environments exploration or monitoring. Therefore, it could benefit to several applications, both in real world context or virtual environments. In safety and security applications, firemen, policemen or soldiers could take advantage of wide FoV. Performance of searching task and fast exploration in virtual environments could also be improved with wide FoV
APA, Harvard, Vancouver, ISO, and other styles
40

Joubert, Eric. "Reconstruction de surfaces en trois dimensions par analyse de la polarisation de la lumière réfléchie par les objets de la scène." Rouen, 1993. http://www.theses.fr/1993ROUES052.

Full text
Abstract:
Les travaux présentés dans cette thèse abordent la résolution du problème de la reconstruction de surfaces en trois dimensions par l'analyse de la polarisation de la lumière. Notre méthode suppose que les rayons lumineux issus de la réflexion sur des objets sont partiellement polarisés. Cet état de polarisation s'avère alors être fonction de l'orientation de l'élément de surface observé. Le présent mémoire est organisé en trois parties. La première partie décrit une méthode originale qui est capable de fournir une valeur représentative de l'état de polarisation pour chaque point de l'image totale d'une scène courante. Des résultats de ce traitement, qui sont proposés pour différents types de scènes, font apparaître une précision moyenne de l'ordre de 1%. La deuxième partie met en oeuvre la méthode précédente dans un système de reconstruction qui n'utilise qu'un seul point de vue. Les résultats obtenus pour deux scènes génériques montrent clairement les limites d'un tel principe, et définissent un champ d'applications spécifique. La dernière partie ajoute un deuxième point de vue de la scène observée de manière à créer un système de stéréovision original. Les résultats présentés pour deux scènes génériques montrent de réelles capacités de reconstruction pour des formes aussi diversifiées que des formes courbes ou plates. Cette dernière méthode illustre parfaitement les avantages de l'utilisation des grandeurs de polarisation dans un système de reconstruction
APA, Harvard, Vancouver, ISO, and other styles
41

Limkhaitir, Mohamed Mahmoud. "Modélisation des formes volumiques à partir d'images tomographiques 3D : application à la Caractérisation de l'espace poral du sol." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066556.

Full text
Abstract:
Nous présentations dans ce travail une méthode de représentation des formes volumiques 3D complexes. Nous dé nissons une forme volumique 3D par un ensemble de voxels extrait d'un traitement d'images Tomographiques 3D. cet ensemble est définit par sa fonction indicatrice. Notre objectif est le calcul d'une approximation analytique continue par morceau, compact, stable et robuste de la forme initiale, qui conserve ses propriétés topologiques et géométriques. Nous proposons une description de la forme par un ensemble minimum de boules incluses dans la forme et recouvrant son squelette. Nous démontrons le fait que cela revient à chercher un ensemble minimum de boules maximales recouvrant le squelette de la forme. Notre nouvelle représentation de la forme volumique, que nous appellerons MISS, donne une description optimal des cavités de la forme. Nous proposons un algorithme basé sur la triangulation de Delaunay 3D pour le calcul de la représentation MISS d'une forme volumique décrite par un ensemble de voxels. De cette représentation primaire nous arriverons à fournir une approximation par des primitives plus sophistiquées : cylindres, cônes et cylindres généralisés. Ainsi, nous proposons un algorithme pour calculer ces primitives à partir d'un réseau de boules. Le résultat nal est une description robuste intrinsèque de la forme initiale à la fois par des boules, cylindres, cônes et cylindres généralisés. Nous appliquons notre algorithme sur des images tomographique 3D du sol a n de fournir une description géométrique intrinsèque et robuste de l'espace poral ; cette description peut être, ensuite, utilisée pour la simulation des dynamiques biologiques du sol
In this thesis we present a primary representation for complex 3D volume shape. We de fine a 3D volume shape by a set of voxels derived from a computed tomography volume image. In a theoretical point of view, this set of voxels defi nes its indicatrix function. The basic idea is to look for a compact, stable and robust piece wise analytic approximation of the shape which conserves its topological and geometrical properties. We propose to describe a volume shape by a minimal number of balls included within the shape and recovering the shape skeleton. We show that it is equivalent to find out a (fi nite) minimal set of "maximal balls" recovering the skeleton. In the case where the absolute values of the principal curvatures of the shape envelope are bounded above we prove that such a finite set does exist. Indeed, our new shape representation provides an optimal description of the shape cavities. We propose an algorithm based on Delaunay 3D triangulation to compute the MISS of a volume shape described by a set of voxels. Afterwards, this representation can be used to approximate the shape using more sophisticated primitives like cylinders, cones, generalized cylinders. We propose algorithms to provide optimal cylinders and cones from ball network. The final result is an intrinsic and robust description of the initial shape using both balls, cylinders, cones. This scheme can be extended by using also curved cylinders and curved cones. Finally, we apply our algorithm to 3D volume Computed Tomography soil data in order to provide intrinsic and robust geometrical description of pore space to be used for biological dynamics simulation and modeling
APA, Harvard, Vancouver, ISO, and other styles
42

Wang, Fan. "Imagerie nanométrique 2D et 3D ultrarapide par diffraction cohérente." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112226/document.

Full text
Abstract:
La diffraction cohérente est une technique étonnante par sa simplicité expérimentale : une source XUV cohérente illumine un échantillon unique, isolé, et la figure de diffraction de l’objet est enregistrée sur une caméra CCD. Une inversion de la figure de diffraction à une image dans l’espace réel est possible grâce à une approche basée sur des algorithmes itératifs. Les techniques d’holographie par transformée de Fourier, pour lesquelles une référence est placée à proximité de l’objet que l’on veut imager, permettent-elles la reconstruction directe de l’image, même lorsque la qualité des données expérimentales est moindre. Nous disposons dans notre laboratoire d’une source compacte XUV suffisamment intense pour réaliser ce type d’expérience. Les impulsions XUV ultrabrèves (femtoseconde à attoseconde) sont produites en sélectionnant les harmoniques d’ordre élevé d’un laser infra-rouge femtoseconde focalisé dans une cellule de gaz rare. Nous avons récemment démontré la possibilité d’utiliser cette source pour l’imagerie par diffraction cohérente avec une résolution spatiale de 78 nm. De plus, nous avons démontré expérimentalement une technique d’holographie avec référence étendue, et obtenu une résolution de 110 nm en simple tir (soit un temps d’intégration de 20 femtosecondes). Une perception d’un objet en trois dimensions nous donne une meilleure compréhension de celui-ci. A l’échelle nanométrique, les techniques d’imagerie 3D sont issues de techniques tomographiques autour de la microscopie électronique. Cependant, les nombreuses prises de vue nécessaires (sous des angles différents) rendent ces techniques caduques lors de l’étude résolue en temps de phénomènes irréversibles sur des échantillons non reproductibles. Dans ce contexte, le but de ma thèse est d’étendre les techniques d’imagerie 2D à une perception 3D d’objets nanométriques (physiques, biologiques), tout en préservant l’aspect ultrarapide. Le développement d’une nouvelle technique d’imagerie cohérent 3D en seul vue, l’ankylographie, proposée par le professeur J. Miao de UCLA [Raines et al., Nature 2010] a été effectué. Cette technique permet de reconstruire l’image 3D d’un échantillon d’après une unique image de diffraction. Son principe basique est de retrouver la profondeur d’un objet 3D par l’interférence constructive longitudinale. Cependant, cette technique d’imagerie cohérent 3D est plus exigeante en termes de qualité de données expérimentales comme en moyen informatique d’analyse et d’inversion. L’autre idée en imagerie 3D est de mimer la vision humaine en utilisant deux faisceaux X cohérents arrivant simultanément sur l’échantillon mais avec un petit angle. Dans ce schéma, on utilise des références à coté de l’objet mire (holographie) pour améliorer le rapport signal sur bruit dans la figure de diffraction (soit hologramme). On recueille ensuite deux hologrammes sur le même détecteur. L’inversion Fourier de chacun des hologrammes forme deux images issues d’une vision différente de l’objet. La parallaxe est ainsi réalisée. La reconstruction stéréo de l’objet est effectuée numériquement. Enfin, des applications de démonstration seront envisagées après ma thèse. Il s’agit d’imager des objets biologiques (nanoplanktons déjà collectés et préparés au CEA). Et nous nous intéresserons également à l’étude du mouvement 3D d’objets nanométriques (azo-polymères) sur des temps ultracourts. Une autre application importante sera d’étudier la transition de phase ultra-rapide tel que le nano-domaine magnétique où des phénomnes de désaimantation induite par des impulsion femtoseconde ont lieu
Coherent diffraction is an amazing art by its experimental simplicity: a coherent XUV source illuminates a single, isolated sample, and the diffraction pattern of the object is recorded by a CCD camera. An inversion of the diffraction pattern to an image in real space is possible through an approach based on iterative algorithms. The techniques for Fourier transform holography, for which reference is placed near the object to be imaged, allow the direct reconstruction of the image, even when the quality of the experimental data is worse. We have a laboratory sufficiently intense compact XUV source for this type of experience. The ultrashort XUV pulses (from femtosecond to attosecond) are produced by selecting high order harmonics of a femtosecond infrared laser which is focused into a cell of rare gas. We recently demonstrated the feasibility of using this source for coherent diffraction imaging with a spatial resolution of 78 nm. Furthermore, we demonstrated experimentally a holographic technique with extended reference and obtained a resolution of 110 nm in single shot (i.e. an integration time of 20 femtoseconds). A perception of an object in three dimensions gives us a better understanding thereof. A nanoscale 3D imaging techniques are from tomographic techniques of electron microscopy. However, many shots required (from different angles) make these techniques obsolete during the study time-resolved irreversible phenomena on non-reproducible samples. In this context, the aim of my thesis is to extend the 2D imaging techniques for 3D perception of nanoscale (physical, biological ) objects, while preserving the ultrafast appearance. The development of a new technology of 3D coherent imaging in single view, named ‘ankylography’, proposed by Professor Miao J. UCLA [Raines et al., Nature 2010] was made in progress. This technique allows reconstructing a 3D image of the sample after a single diffraction image. Its basic principle is to find the depth of a 3D object by the longitudinal constructive interference. However, this technique is more requested in both the quality of experimental data and the computer hardware and analysis. The other idea for 3D imaging is to imitate human vision using two coherent beams X arriving simultaneously on the sample but with a small angle. In this scheme, we use references near the target object (i.e. holography) to improve the signal to noise ratio in the diffraction pattern (hologram). Two holograms are then collected on the same detector. The inverse Fourier of each hologram forms two images from different views of the object. Parallax is thus produced. The stereo reconstruction of the object is performed by computer. Finally, the demonstration of applications will be considered after my thesis. This imaging of biological objects (such as nanoplanktons already collected and prepared CEA). And we are also interested in the study of 3D nanoscale objects (azo-polymers) movement on ultrashort time. Furthermore, another important application will be to study the ultra-fast phase transition such as nano-magnetic field where demagnetization phenomena induced by femtosecond pulse occurs
APA, Harvard, Vancouver, ISO, and other styles
43

Soriano, Ilaria. "Bandes de déformation localisée dans les sables faiblement cimentés : l'exemple de Bédoin (Sud de la France)." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI047.

Full text
Abstract:
Une tentative de comprendre le rôle des hétérogénéités dans la formation de bandes de déformation dans les sables faiblement cimentés a été réalisée. Les structures de dépôt et les suivant processus de déformation localisé ont été considérés comme hétérogénéités. Il était observé que les hétérogénéités dans les sables artificiellement déposés induisaient une déformation localisée à travers eux, mais ce comportement n'a pas été analysé dans les sables naturellement deposés à cause de la complexité de les extraire sans modifier leur structure.L'étude a été réalisée en utilisant des sables faiblement cimentés de Bédoin (sud de la France), dont les affleurements sont recoupés par des bandes de déformation. De petits morceaux de sable cimenté non perturbé et de bandes de déformation ont été utilisés pour préparer des polished thin sections, tandis que de gros blocs de matériau ont été collectés avec un échantillonneur de terrain innovant pour extraire des échantillons intacts pour des tests mécaniques.L’analyse d’images au microscope électronique a révélé syntaxial quartz overgrowths à l'intérieur et à l'extérieur des bandes de déformation. L'observation du quartz et de l'illitization de la kaolinite dans le dépôt de Bédoin a permis d'étendre la profondeur maximale estimée pour les affleurements de Bédoin à 2 - 3 km.Les essais mécaniques réalisés avec la tomographie informatisée à rayon-X ont révélé que les couches de dépôt développaient un faible degré de cisaillement (0,5 - 1 MPa de pression de confinement). Cependant, la déformation localisée était davantage affectée par d'autres types d'hétérogénéité: d'une part, une région de porosité accrue provoquait la formation d'une bande de cisaillement à travers le pore; d'autre part, un pore allongé entouré d'une épaisse couche de ciment argileux a déplacé la déformation localisée loin du pore. De même, une bande de dilatation préexistante n'attirait pas de déformation localisée mais il réactivait partiellement, montrant une dilatation avec cisaillement.Des essais sur des sables cimentés et non cimentés artificiellement ont été réalisés dans les mêmes conditions que celles appliquées aux sables naturels. Les échantillons cimentés étaient composés du même sable de Bédoin cimenté avec deux teneurs en argile (15% et 20%) fabriqués avec une procédure de cémentation innovant et sans reproduire les hétérogénéités observées dans le matériau naturel. Les échantillons naturels développaient des bandes plus précoces, moins nombreuses et plus pointues que les bandes collées artificiellement, qui développaient des réseaux plus larges de bandes de cisaillement dans les échantillons. La différence de comportement mécanique est attribuée aux hétérogénéités, car aucune d’entre elles s’est effondrée sous compression. Dans les échantillons préparés artificiellement, la teneur en ciment était proportionnelle à la résistance de l'échantillon, mais celle-ci était toujours inférieure à la résistance naturelle des échantillons.La tomographie a rayon-X a été réalisée aussi sur des échantillons de bandes de déformation afin de calculer porosité et perméabilité par traitement d’image. La porosité a indiqué une réduction d'une valeur de 30% dans les sables non perturbés à des valeurs inférieures à 10% dans les bandes de déformation. La porosité dans le noyau de la bande de dilatation était similaire à celle des sables non perturbés, mais ses contours avaient une demi-valeur (environ 15%). Il a été rapporté une réduction de la perméabilité de 3 à 4 ordres de grandeur dans les bandes, alors que la bande de dilatation était d'un ordre de grandeur inférieure, par rapport au sable non perturbé.Il a été démontré que le rôle des hétérogénéités n’avait pas toujours une influence sur la déformation localisée dans les sables cimentés de Bédoin. En l'absence d'hétérogénéités, une localisation moins intense et plus distribuée serait favorisée, par exemple, sous la forme d'un réseau de bandes
An attempt to study the role of heterogeneities in the occurrence of deformation bands in weakly cemented sands was performed. Depositional structures and later deformation processes were considered as heterogeneities. In artificially cemented samples, they were observed to induce localised deformation across them, but this behaviour was not analysed in natural sands due to the complexity of extracting them from the field without altering their structure.The investigation was performed by using weakly clay-cemented sands from Bédoin (Southern France), whose outcrops are cross-cut by deformation bands. Small chunks of undisturbed cemented sand and of deformation bands were used to prepare polished thin sections, whereas large blocks of material were collected with an innovative field sampler and carried to the laboratory to extract intact samples for mechanical testing.From image analysis with Scanning Electron Microscopy of the thin sections, syntaxial quartz overgrowths were found everywhere, in increasing quantity from undisturbed and dilation band, to single-strand, multi-strand, and finally cluster. The observation of quartz overgrowths and of kaolinite illitization, inside and outside deformation bands, has led to extend the maximum burial depth estimated for the Bédoin outcrops to 2 – 3 km.From the mechanical tests performed with syn-deformation X-ray Computed Tomography, it emerged that depositional layers developed a low degree of shear (at about 0.5 – 1 MPa of confining pressure). However, localised deformation was more affected by other types of heterogeneities: on one hand, a region of enhanced porosity triggered the formation of a shear band across the enhanced pore; on the other hand, an elongated pore surrounded by thick clay cement layer moved the localised deformation far from the pore, instead of triggering it close by. Similarly, a pre-existing dilation band did not attract further localised deformation, but it only partially reactivated showing further dilation with shear.In parallel with tests on natural material, tests on artificially cemented and uncemented sands were performed under the same conditions applied to the natural ones. The cemented samples were composed of the same Bédoin sand cemented with two different clay contents (15% and 20%) fabricated with an innovative cementation procedure and without replicating the heterogeneities observed in the natural material. Natural samples showed earlier, fewer, and sharper bands than the artificially cemented ones, which developed broader networks of shear bands in the samples. The difference in mechanical behaviour is attributed to the heterogeneities, which revealed high mechanical resistance since none of them – region of enhanced porosity, elongated pore, pre-existing dilation band - collapsed under compression. In artificially prepared samples, the cement content was proportional to the sample resistance, but this was reported always lower than the natural samples resistance.X-ray Computed Tomography was also performed on some deformation band samples, in order to calculate porosity and permeability through image processing. Porosity reported a reduction from an average of 30% in undisturbed sands to values lower than 10% in single-strand bands and closer to zero in multi-strand bands. Porosity in the dilation band core was similar to that of undisturbed sands, but it reported contours with half value (about 15%). Permeability was reported to reduce of 3 – 4 orders of magnitude from undisturbed sands to single- and multi-strand bands, whereas the dilation band was one order of magnitude lower than the undisturbed sand.The role of heterogeneities was demonstrated to be not always influent on the localised deformation in the cemented sands of Bédoin. In the absence of heterogeneities, less intense and a more distributed strain localisation would be promoted, e.g., in the form of network of bands
APA, Harvard, Vancouver, ISO, and other styles
44

Lasserre, Patricia. "Vision pour la robotique en environnement naturel." Phd thesis, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00139846.

Full text
Abstract:
Cette thèse se situe dans le cadre de l'augmentation des capacités de perception des robots mobiles destinés à évoluer en environnement naturel. Un robot mobile autonome doit être capable de percevoir et d'appréhender l' environnement dans lequel il évolue, à partir des données fournies par ses capteurs (télémètre laser, caméra...), pour effectuer des missions du type "aller à - (un amer)". L'utilisation d'un télémètre laser suffit pour faire effectuer au robot des missions de déplacement ; l'information tridimensionnelle apportée par ce capteur permet d'extraire des informations sur la géométrie du terrain, la forme et la surface des objets, mais ne permet pas toujours d'obtenir une description suffisante de l'environnement : plusieurs objets peuvent avoir la même forme, le terrain peut être impraticable même s'il est plat. Les travaux présentés dans ce mémoire portent donc sur le développement de l'utilisation du capteur caméra vidéo pour apporter des informations utiles à la localisation et à la navigation du robot dans son environnement. Les besoins actuels pour réaliser ces deux tâches ont permis de déterminer deux directions à développer. L'une concerne l'obtention de l'information tridimensionnelle à partir d'un systeème stéréoscopique ; l'autre consiste à enrichir la connaissance de l'environnement par identification des objets contenus dans la scène. La stéréovision est un moyen répandu pour obtenir l'information tridimensionnelle. Nous avons implémenté un algorithme de stéréocorrélation, technique qui est adaptée pour des scènes texturées. L'algorithme de base est amélioré pour prendre en compte à la fois les contraintes de rapidité d'exécution et de qualité de la corrélation. Lorsque le robot évolue dans un environnement extérieur, la connaissance du terrain ou des objets situés dans cet environnement peut être améliorée en ajoutant des informations telles que la co uleur ou la texture. Nous avons proposé comme représentation complémentaire, le modèle nominatif de régions qui indique la nature de chaque région d'une image. Tout d'abord, un algorithme de segmentation donne une description synthétique de la scène : la méthode combine à la fois les techniques de grossissement de régions et de classification (basée sur l'étude de l'allure générale des histogrammes sur chaque composante colorimétrique). Les régions issues de cette segmentation sont ensuite caractérisées puis identifiées afin d'obtenir leur nature (herbe, roche, terre...). Leur caractérisation est obtenue à partir des informations sur leur couleur et leur texture. Les opérateurs de texture développés sont basés sur l'étude des lignes de contraste dans la région considérée (densité, courbure,...). Une technique probabiliste est finalement utilisée pour déterminer la nature des éléments présents dans l'environnement.
APA, Harvard, Vancouver, ISO, and other styles
45

Buchholz, Bert. "Abstraction et traitement de masses de données 3D animées." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00958339.

Full text
Abstract:
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées.
APA, Harvard, Vancouver, ISO, and other styles
46

Delingette, Hervé. "Modélisation, déformation et reconnaissance d'objets tridimensionnels à l'aide de maillages simplexes." Phd thesis, Ecole Centrale Paris, 1994. http://tel.archives-ouvertes.fr/tel-00632191.

Full text
Abstract:
Dans cette thèse, une représentation originale d'objets tridimensionnels est introduite: les maillages simplexes. un k-maillage simplexe est un maillage ou chaque sommet est connecte à k + 1 sommets voisins. Ainsi un contour est représenté par un 1-maillage simplexe et une surface tridimensionnelle par un 2-maillage simplexe. La structure d'un maillage simplexe est duale de celle des triangulations. Plusieurs propriétés topologiques et géométriques originales rendent l'utilisation des maillages simplexes particulièrement bien adaptée à la représentation de surfaces déformables. Nous introduisons la notion d'angle simplexe, de courbure moyenne discrète et de paramètre métrique à chaque sommet du maillage. La propriété géométrique essentielle des maillages simplexes est la possibilité de représenter localement la forme d'un k-maillage en un sommet à l'aide de (k + 1) quantités adimensionnées. Les maillages simplexes déformables sont alors utilisés dans un système de modélisation d'objets tridimensionnels. En présence d'images volumiques ou de profondeur, un maillage simplexe est déformé sous l'action de forces régularisantes et de forces externes. Les maillages simplexes sont adaptatifs à plusieurs titres. D'une part, les sommets se concentrent aux endroits de fortes courbure et d'autre part, le maillage peut être raffiné ou décimé en fonction de la proximité des sommets aux données. Enfin, l'utilisation de maillages simplexes sphériques quasi-réguliers permet la reconnaissance de forme d'objets tridimensionnels, même en présence d'occultations. La forme d'un objet est alors représentée par l'ensemble des valeurs des angles simplexes du maillage simplexe déformé, projeté sur le maillage sphérique originel. La forme de deux objets est comparée par l'intermédiaire de leur image simplexe (simplex angle image)
APA, Harvard, Vancouver, ISO, and other styles
47

Okubadejo, Olumide. "Détection et suivi de grains se fracturant en images tomographiques 3D+T." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI053/document.

Full text
Abstract:
La caractérisation de la rupture des grains via des techniques d'imagerie par tomographie est un sujet de recherche d'actualité. Les principaux verrous scientifiques et techniques sont associés à la complexité des algorithmes de traitement d'images permettant de suivre le mouvement des grains et leurs ruptures.Dans cette thèse, des approches numériques basées sur le traitement d'images sont proposées afin d'améliorer la compréhension des phénomènes de rupture et de broyage dans les matériaux granulaires dont le comportement est décrit par imagerie.Premièrement, en raison de l'interdépendance de la précision de la segmentation et de la résolution des techniques d'imagerie à l'échelle de la rupture des grains, nous commençons par un état de l'art sur les différentes techniques d’élimination des bruits dans les images de milieux granulaires. Ainsi, une analyse critique des méthodes existantes est établie en se référant aux différents matériaux d'application associés.Deuxièmement, et en vue de mieux capter les informations à partir des images sources, nous proposons une nouvelle approche qui consiste à passer d'une approche morphologique par bassin versant à la segmentation des géo matériaux à une approche hiérarchique. Aussi itérons-nous les moyens par lesquels la segmentation spécifique aux différents contextes d'application de l'imagerie peut être réalisée.Troisièmement, nous présentons un modèle original pour capter les ruptures des grains en se basant sur le traitement d'images statiques; sans considération de motion pour, enfin, présenter des modèles spatio-temporels suivant l'évolution de la casse dans les images de matériaux granulaires
Grain breakage in granular materials has been relatively, difficult to compute and characterise in tomography images. This is based on the perceived complexity of an algorithmic formulation for the characterisation of grains that move and break.In this thesis, we highlight computational approaches that augment the understanding of breakage and crushing phenomena in granular materials. Due to the inter-connectedness of segmentation accuracy and ability to compute for breakage, we start by examining noise removal techniques in granular materials. Noise removal techniques are analysed based on a set of materials to which they applied. Secondly, we deviate from a morphological watershed approach to segmentation of geomaterials, to a hierarchical approach that better captures apriori information from data sources. The ways by which context or image specific segmentation can be achieved is iterated. Thirdly, we present a model for capturing breakage in static images; without the consideration of motion. Finally, we present spatiotemporal models that track the evolution of breakage in images of granular materials
APA, Harvard, Vancouver, ISO, and other styles
48

Gales, Guillaume. "Mise en correspondance de pixels pour la stéréovision binoculaire par propagation d'appariements de points d'intérêt et sondage de régions." Phd thesis, Toulouse 3, 2011. http://tel.archives-ouvertes.fr/tel-00622859.

Full text
Abstract:
La mise en correspondance stéréoscopique est un des principaux problèmes de la vi- sion par ordinateur. Elle consiste à trouver dans deux images d'une même scène, prises à des positions différentes, les couples de pixels qui sont les projections d'un même point de la scène. Durant ces vingt dernières années, de nombreuses méthodes locales et globales ont été proposées pour résoudre ce problème. Plus récemment, grâce à un pro- tocole d'évaluation de référence dans la communauté, une catégorie de méthodes fondées sur les régions a montré des performances intéressantes dans le cadre de la stéréovision binoculaire dite " small-baseline " (dont les images sont prises à des positions proches). Une contribution de ce travail porte sur un type particulier de méthode locale appelé propagation de germes. La zone de recherche des correspondants est réduite aux voisinages d'appariements fiables appelés germes, en faisant l'hypothèse que, généralement, deux pixels voisins ont des correspondants proches. Cela permet de réduire les temps de calculs et d'éviter certaines ambiguïtés. Cependant, le succès de ce type de méthode est fortement dépendant du choix de ces germes. Dans ce mémoire, nous proposons une étude de l'étape de sélection des germes. Nous nous concentrons sur la mise en correspondance de points d'intérêt. Il s'agit de points de l'image ayant des caractéristiques intéressantes pour une application donnée. Dans notre cas, nous avons besoin de pixels qui peuvent être mis en correspondance de manière sûre. Nous comparons quatorze détecteurs bien connus associés à cinq mesures de corrélation. Certaines de ces mesures sont conçues pour être robustes à un des principaux problèmes de la mise en correspondance stéréoscopique : les ruptures de profondeur. En outre, cette étude donne des conseils sur la manière de choisir les paramètres des différentes méthodes afin de trouver les meilleurs germes possibles selon des critères donnés. Ensuite, ces germes sont utilisés avec deux approches de propagation et les résultats sont évalués. Une autre contribution porte sur une nouvelle approche de mise en correspondance sté- réoscopique dense fondée sur les régions. Différentes segmentations couleur sont utilisées. Ensuite, plusieurs instances d'un modèle de surface sont calculées pour les différentes ré- gions selon des disparités initiales tirées au sort. Pour chaque pixel, chaque instance donne une disparité qui est considérée comme un vote. Finalement, la disparité qui reçoit le plus de voix est sélectionnée comme disparité finale. Cette approche est relativement simple à implémenter et s'avère efficace en donnant des résultats compétitifs vis-à-vis de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles
49

Lefebvre, Sébastien. "Approche monodimensionnelle de la mise en correspondance stéréoscopique par corrélation - Application à la détection d'obstacles routiers." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00543976.

Full text
Abstract:
En stéréovision, une carte dense des disparités peut être déterminée grâce à des méthodes locales exploitant la mise en correspondance des contenus de voisinages bidimensionnels. Toutefois, dans le contexte d'une application de métrologie 3D, il n'est pas nécessaire que la carte soit dense, mais elle doit être très précise. Par ailleurs, en présence d'un fort eet de perspective, d'importantes variations locales de la disparit é apparaissent et les méthodes locales exploitant des fenêtres 2D ne garantissent plus une précision susante. Dans ce travail, nous proposons une méthode générique de mise en correspondance qui exploite des caractéristiques extraites d'un ensemble de courbes de similarité calculées sur des fenêtres 1D. Nous établissons une notion de conance reliant directement la précision à la densité de la carte des disparités obtenue, entre lesquelles il est alors possible de xer un compromis. La méthode générique proposée est évaluée en comparant ses résultats à ceux obtenus par six autres méthodes locales similaires. Nous montrons ainsi son ecacité, tout particulièrement quand la scène contient un plan fortement incliné. Nous testons nalement notre méthode dans le cadre d'une application de détection d'obstacles à l'avant d'un véhicule routier. Nous montrons qu'en segmentant notre carte des disparités par un procédé assez simple, la détection des obstacles est possible et surtout plus précise qu'avec des cartes des disparités calculées sur des voisinages 2D. Le comportement de la méthode 1D face à diérents défauts de texture ou de calibration est étudié à la fois sur des images de synthèse et des images réelles.
APA, Harvard, Vancouver, ISO, and other styles
50

Orlandi, Oriana. "La compréhension des images tactiles chez les enfants porteurs d'un handicap visuel." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOL006/document.

Full text
Abstract:
L’objectif de cette thèse est de mieux comprendre comment les enfants déficients visuels (DV) appréhendent les images tactiles qui illustrent les livres qui leur sont destinés. Notre travail est organisé autour de deux axes de réflexion. Le premier axe se concentre sur l’enfant qui explore des images tactiles, alors que le second axe se focalise sur l’impact des propriétés de ces images sur le traitement haptique des enfants. Nos travaux ont porté sur des enfants atteints de différents degrés de handicap visuel mais sans troubles associés (en particulier, sans retard cognitif), en distinguant les enfants aveugles précoces des enfants malvoyants. Nous avons également comparé leurs performances à celles d’enfants voyants de mêmes âges. Les résultats obtenus montrent que l’expérience perceptive des enfants en fonction de leur degré de handicap visuel impacte fortement la compréhension de l’image explorée tactilement. Les capacités de conceptualisation (accès aux dimensions perceptives et sémantiques de l’image) sont différentes, tout comme les mouvements d’exploration mis en œuvre pour accéder à une bonne compréhension. Nous montrons également que les dimensions spatio-temporelles des explorations (temps, quantité d’exploration, appréhension de l’espace) sont déterminantes pour reconnaitre ce qui est représenté par l’image, et que ces dimensions varient, à nouveau, en fonction du degré de handicap visuel. D’un point de vue fondamental, nous apportons des données concernant les spécificités du système perceptif haptique des enfants DV. D’un point de vue appliqué, nos travaux permettent de proposer des consignes pratiques relatives à la conception d’albums et des conseils pédagogiques concernant l’éducation au toucher à proposer à ces enfants
The present PhD aims at understanding how Visual Impaired (VI) children process the tactile pictures that illustrate the tactile books specially designed for them. Our work is organized around two main axes of analysis. The first axis concentrates on the child who explores the tactile images, while the second axis focuses on the impact that the properties of these images can have on children’s haptic processing. Our researches included children presenting various degrees of visual impairment but without any associated disorders (in particular, without any cognitive delay), distinguishing early blind children from children with low vision. We also compared their performance with those of sighted children of similar ages. The results showed that children’s perceptive experience, varying according to their degree of visual handicap, strongly impacted their understanding of the tactually explored pictures. Their capacities of conceptualization (access to the perceptive and semantic dimensions of the pictures) were different, just like their movements of exploration carried out to attain a good understanding of the images. We also showed that some properties of the children’s explorations (duration, quantity of exploration, space apprehension) were directly related to the way the children interpreted what was represented in the pictures. Again, these spatiotemporal features varied as a function of the degree of visual handicap. From a fundamental point of view, we provided interesting information concerning the specificities of the haptic perceptive system of the VI children. From an applied point of view, our work enabled to elaborate practical instructions relative to the design of tactile albums and educational advices concerning the education of touch to be proposed to these children
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography