Tesi sul tema "Rendu 3D"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Rendu 3D.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-45 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Rendu 3D".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Baele, Xavier. "Génération et rendu 3D temps réel d'arbres botaniques". Doctoral thesis, Universite Libre de Bruxelles, 2003. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211314.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Bleron, Alexandre. "Rendu stylisé de scènes 3D animées temps-réel". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM060/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but du rendu stylisé est de produire un rendud'une scène 3D dans le style visuel particuliervoulu par un artiste.Cela nécessite de reproduire automatiquementsur ordinateur certaines caractéristiquesd'illustrations traditionnelles: par exemple,la façon dont un artiste représente les ombres et lalumière, les contours des objets, ou bien les coupsde pinceau qui ont servi à créer une peinture.Les problématiques du rendu stylisé sont pertinentesdans des domaines comme la réalisation de films d'animation 3Dou le jeu vidéo, où les studios cherchent de plus en plus à se démarquerpar des styles visuels originaux.Dans cette thèse, nous explorons des techniques destylisation qui peuvent s'intégrer dans des pipelinesde rendu temps-réel existants, et nous proposons deux contributions.La première est un outil de création de modèles d'illuminationstylisés pour des objets 3D.La conception de ces modèles est complexe et coûteuse en temps,car ils doivent produire un résultat cohérentsous une multitude d'angles de vue et d'éclairages.Nous proposons une méthode qui facilite la créationde modèles d'illumination pour le rendu stylisé,en les décomposant en sous-modèles plus simples à manipuler.Notre seconde contribution est un pipeline de rendude scènes 3D dans un style peinture,qui utilise une combinaison de bruits procéduraux 3Det de filtrage en espace écran.Des techniques de filtrage d'image ont déjà été proposéespour styliser des images ou des vidéos:le but de ce travail est d'utiliser ces filtres pourstyliser des scènes 3D tout en gardant la cohérence du mouvement.Cependant, directement appliquer un filtreen espace écran produit des défauts visuels au niveau dessilhouettes des objets.Nous proposons une méthode qui permet d'assurer la cohérence du mouvement,en guidant les filtres d'images avec des informations sur la géométrie extraites de G-buffers, et qui élimine les défauts aux silhouettes
The goal of stylized rendering is to render 3D scenes in the visual style intended by an artist.This often entails reproducing, with some degree of automation,the visual features typically found in 2D illustrationsthat constitute the "style" of an artist.Examples of these features include the depiction of light and shade,the representation of the contours of objects,or the strokes on a canvas that make a painting.This field is relevant today in domains such as computer-generated animation orvideo games, where studios seek to differentiate themselveswith styles that deviate from photorealism.In this thesis, we explore stylization techniques that can be easilyinserted into existing real-time rendering pipelines, and propose two novel techniques in this domain.Our first contribution is a workflow that aims to facilitatethe design of complex stylized shading models for 3D objects.Designing a stylized shading model that follows artistic constraintsand stays consistent under a variety of lightingconditions and viewpoints is a difficult and time-consuming process.Specialized shading models intended for stylization existbut are still limited in the range of appearances and behaviors they can reproduce.We propose a way to build and experiment with complex shading modelsby combining several simple shading behaviors using a layered approach,which allows a more intuitive and efficient exploration of the design space of shading models.In our second contribution, we present a pipeline to render 3D scenes in painterly styles,simulating the appearance of brush strokes,using a combination of procedural noise andlocal image filtering in screen-space.Image filtering techniques can achieve a wide range of stylized effects on 2D pictures and video:our goal is to use those existing filtering techniques to stylize 3D scenes,in a way that is coherent with the underlying animation or camera movement.This is not a trivial process, as naive approaches to filtering in screen-spacecan introduce visual inconsistencies around the silhouette of objects.The proposed method ensures motion coherence by guiding filters with informationfrom G-buffers, and ensures a coherent stylization of silhouettes in a generic way
3

Tobor, Ireneusz. "Utilisation des surfels dans le rendu des surfaces 3D". Bordeaux 1, 2002. http://www.theses.fr/2002BOR12640.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une nouvelle approche dans le rendu d'objets 3D consiste à utiliser les points comme des primitives de rendu. Ces points sont des échantillons de la surface et ils sont appelés "surfels". Ce document présente des techniques de conversion de modèles existants en surfels, le rendu par surfels, les structures hiérarchiques permettant le rendu par niveaux de détails et différentes optimisations possibles face au rendu classique "par facettes". Ensuite la reconstruction d'une surface implicite à partir d'un nuage des surfels est présentée ainsi qu'une nouvelle méthode de rendu des surfaces implicites à l'aide des surfels. Pour optimiser le rendu le volume implicite est divisé en régions et la fonction est approchée localement par polynômes de second degré. Pour accélérer le processus de la reconstruction le nuage de surfels doit être simplifié pour diminuer le nombre de contraintes de surface résultante.
4

Boehm, Mathilde. "Contribution à l'amélioration du rendu volumique de données médicales 3D". Paris, ENMP, 2004. http://www.theses.fr/2004ENMP1271.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Duguet, Florent. "Rendu et reconstruction de très gros nuages de points 3D". Nice, 2005. http://www.theses.fr/2005NICE4031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Cunat, Christophe. "Accélération matérielle pour le rendu de scènes multimédia vidéo et 3D". Phd thesis, Télécom ParisTech, 2004. http://tel.archives-ouvertes.fr/tel-00077593.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un processus de convergence des techniques algorithmiques de deux domaines autrefois disjoints, convergence facilité par l'émergence de normes telles que MPEG-4, s'est engagé au cours de ces dernières années. Grâce au concept de codage par objets, une scène peut être reconstituée par la composition de divers objets dans un ordre déterminé.
Cette thèse s'inscrit dans le cadre de la composition d'objets visuels qui peuvent être de natures différentes (séquences vidéo, images fixes, objets synthétiques 3D, etc.). Néanmoins, les puissances de calcul nécessaires afin d'effectuer cette composition demeurent prohibitives sans mise en place d'accélérateurs matériels spécialisés et deviennent critiques dans un contexte de terminal portable.
Une revue tant algorithmique qu'architecturale des différents domaines est effectuée afin de souligner à la fois les points de convergence et de différence. Ensuite, trois axes (interdépendants) de réflexions concernant les problématiques de représentation des données, d'accès aux données et d'organisation des traitements sont principalement discutés.
Ces réflexions sont alors appliquées au cas concret d'un terminal portable pour la labiophonie : application de téléphonie où le visage de l'interlocuteur est reconstruit à partir d'un maillage de triangles et d'un placage de texture. Une architecture unique d'un compositeur d'image capable de traiter indifféremment ces objets visuels est ensuite définie. Enfin, une synthèse sur une plateforme de prototypage de cet opérateur autorise une comparaison avec des solutions existantes, apparues pour la plupart au cours de cette thèse.
7

Chakib, Reda. "Acquisition et rendu 3D réaliste à partir de périphériques "grand public"". Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0101/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'imagerie numérique, de la synthèse d'images à la vision par ordinateur est en train de connaître une forte évolution, due entre autres facteurs à la démocratisation et au succès commercial des caméras 3D. Dans le même contexte, l'impression 3D grand public, qui est en train de vivre un essor fulgurant, contribue à la forte demande sur ce type de caméra pour les besoins de la numérisation 3D. L'objectif de cette thèse est d'acquérir et de maîtriser un savoir-faire dans le domaine de la capture/acquisition de modèles 3D en particulier sur l'aspect rendu réaliste. La réalisation d'un scanner 3D à partir d'une caméra RGB-D fait partie de l'objectif. Lors de la phase d'acquisition, en particulier pour un dispositif portable, on est confronté à deux problèmes principaux, le problème lié au référentiel de chaque capture et le rendu final de l'objet reconstruit
Digital imaging, from the synthesis of images to computer vision isexperiencing a strong evolution, due among other factors to the democratization and commercial success of 3D cameras. In the same context, the consumer 3D printing, which is experiencing a rapid rise, contributes to the strong demand for this type of camera for the needs of 3D scanning. The objective of this thesis is to acquire and master a know-how in the field of the capture / acquisition of 3D models in particular on the rendered aspect. The realization of a 3D scanner from a RGB-D camera is part of the goal. During the acquisition phase, especially for a portable device, there are two main problems, the problem related to the repository of each capture and the final rendering of the reconstructed object
8

Cunat, Christophe. "Accélération matérielle pour le rendu de scènes multimédia vidéo et 3D /". Paris : École nationale supérieure des télécommunications, 2004. http://catalogue.bnf.fr/ark:/12148/cb399010770.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Moulin, Samuel. "Quel son spatialisé pour la vidéo 3D ? : influence d'un rendu Wave Field Synthesis sur l'expérience audio-visuelle 3D". Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05H102/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le monde du divertissement numérique connaît depuis plusieurs années une évolution majeure avec la démocratisation des technologies vidéo 3D. Il est désormais commun de visualiser des vidéos stéréoscopiques sur différents supports : au cinéma, à la télévision, dans les jeux vidéos, etc. L'image 3D a considérablement évolué mais qu'en est-il des technologies de restitution sonore associées ? La plupart du temps, le son qui accompagne la vidéo 3D est basé sur des effets de latéralisation, plus au moins étendus (stéréophonie, systèmes 5.1). Il est pourtant naturel de s'interroger sur le besoin d'introduire des événements sonores en lien avec l'ajout de cette nouvelle dimension visuelle : la profondeur. Plusieurs technologies semblent pouvoir offrir une description sonore 3D de l'espace (technologies binaurales, Ambisonics, Wave Field Synthesis). Le recours à ces technologies pourrait potentiellement améliorer la qualité d'expérience de l'utilisateur, en termes de réalisme tout d'abord grâce à l'amélioration de la cohérence spatiale audio-visuelle, mais aussi en termes de sensation d'immersion. Afin de vérifier cette hypothèse, nous avons mis en place un système de restitution audio-visuelle 3D proposant une présentation visuelle stéréoscopique associée à un rendu sonore spatialisé par Wave Field Synthesis. Trois axes de recherche ont alors été étudiés : 1 / Perception de la distance en présentation unimodale ou bimodale. Dans quelle mesure le système audio-visuel est-il capable de restituer des informations spatiales relatives à la distance, dans le cas d'objets sonores, visuels, ou audio-visuels ? Les expériences menées montrent que la Wave Field Synthesis permet de restituer la distance de sources sonores virtuelles. D'autre part, les objets visuels et audio-visuels sont localisés avec plus de précisions que les objets uniquement sonores. 2 / Intégration multimodale suivant la distance. Comment garantir une perception spatiale audio-visuelle cohérente de stimuli simples ? Nous avons mesuré l'évolution de la fenêtre d'intégration spatiale audio-visuelle suivant la distance, c'est-à-dire les positions des stimuli audio et visuels pour lesquelles la fusion des percepts a lieu. 3 / Qualité d'expérience audio-visuelle 3D. Quel est l'apport du rendu de la profondeur sonore sur la qualité d'expérience audio-visuelle 3D ? Nous avons tout d'abord évalué la qualité d'expérience actuelle, lorsque la présentation de contenus vidéo 3D est associée à une bande son 5.1, diffusée par des systèmes grand public (système 5.1, casque, et barre de son). Nous avons ensuite étudié l'apport du rendu de la profondeur sonore grâce au système audio-visuel proposé (vidéo 3D associée à la Wave Field Synthesis)
The digital entertainment industry is undergoing a major evolution due to the recent spread of stereoscopic-3D videos. It is now possible to experience 3D by watching movies, playing video games, and so on. In this context, video catches most of the attention but what about the accompanying audio rendering? Today, the most often used sound reproduction technologies are based on lateralization effects (stereophony, 5.1 surround systems). Nevertheless, it is quite natural to wonder about the need of introducing a new audio technology adapted to this new visual dimension: the depth. Many alternative technologies seem to be able to render 3D sound environments (binaural technologies, ambisonics, Wave Field Synthesis). Using these technologies could potentially improve users' quality of experience. It could impact the feeling of realism by adding audio-visual spatial congruence, but also the immersion sensation. In order to validate this hypothesis, a 3D audio-visual rendering system is set-up. The visual rendering provides stereoscopic-3D images and is coupled with a Wave Field Synthesis sound rendering. Three research axes are then studied: 1/ Depth perception using unimodal or bimodal presentations. How the audio-visual system is able to render the depth of visual, sound, and audio-visual objects? The conducted experiments show that Wave Field Synthesis can render virtual sound sources perceived at different distances. Moreover, visual and audio-visual objects can be localized with a higher accuracy in comparison to sound objects. 2/ Crossmodal integration in the depth dimension. How to guarantee the perception of congruence when audio-visual stimuli are spatially misaligned? The extent of the integration window was studied at different visual object distances. In other words, according to the visual stimulus position, we studied where sound objects should be placed to provide the perception of a single unified audio-visual stimulus. 3/ 3D audio-visual quality of experience. What is the contribution of sound depth rendering on the 3D audio-visual quality of experience? We first assessed today's quality of experience using sound systems dedicated to the playback of 5.1 soundtracks (5.1 surround system, headphones, soundbar) in combination with 3D videos. Then, we studied the impact of sound depth rendering using the set-up audio-visual system (3D videos and Wave Field Synthesis)
10

Decaudin, Philippe. "Modélisation par fusion de formes 3D pour la synthèse d'images : rendu de scènes 3D imitant le style "dessin animé"". Compiègne, 1996. http://www.theses.fr/1996COMPD938.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons, dans une première partie, de nouveaux outils de modélisation d'objets tridimentionnels pour la synthèse d'images. Ils permettent de modeler interactivement des formes d'aspect lisse telles que des formes organiques (animaux, corps humains) et facilitent leur animation et leur texturation. Un objet de forme complexe est créé en appliquant une succession de déformations de type fusion ou flexion à un objet simple. L'outil de fusion permet de modeler l'objet en le fusionnant avec une forme 3D simple (sphère, ellipsoïde,. . . ) ; l'objet est déformé de façon à englober la forme simple. L'outil de flexion est utilisé pour créer des articulations qui permettront d'animer l'objet. Dans la deuxième partie, nous proposons un algorithme de rendu non-photoréaliste. Il génère des images imitant le style «dessin animé» traditionnel (ou «bande dessinée») à partir de la description tridimensionnelle d'une scène fixe ou animée. Pour ce faire, l'algorithme fait appel à des techniques qui permettent de dessiner les contours des objets (profils et arêtes sont dessinés en traits noirs), de colorer uniformément les surfaces intérieures à ces contours, et de faire apparaître sur les objets les ombres propres et les ombres portées dues aux sources de lumière éclairant la scène
In the main section, we introduce new tools for modeling three¬dimensionnal objects for computer graphics. They allow interactive modeling of smooth shapes such as organic-looking shapes (animals, human bodies) and help animating and texturing them. A complex object is created by applying a succession of fusion and twist deformations to a simple object. The fusion tool allows deformation of the shape of the object by merging it with a simple 3D-shape (sphere, ellipsoid,. . . ); the object is deformed so that it embeds the simple shape. The twist tool allows creation of articulations which can be used to animate the deformable object. In a second section, we introduce a non-photorealistic rendering algorithm. It produces images having the appearance of a traditional cartoon from a 3D description of the scene (a static or an animated scene). The 3D scene is rendered with techniques allowing to outline the profiles and edges of objects, to color uniformly the patches, and to render shadows (self-shadows and projected-shadows) due to light sources
11

Bénard, Pierre. "Stylisation temporellement cohérente d'animations 3D basée sur des textures". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00630112.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le thème du rendu expressif qui vise à définir des outils de création et de traitement d'images ou d'animations stylisées. Les applications concernent tous les métiers nécessitant une représentation visuelle plus stylisée qu'une photographie : création artistique (jeux vidéo, film d'animation, dessins animés), restitution archéologique, documentation technique, etc. Un critère fondamental de qualité d'une image est l'absence d'artefacts visuels. Cette considération a toujours existé, mais elle est particulièrement importante dans le cas de l'informatique graphique. En effet, la nature même de l'image - des pixels discrets - est source d'artefacts. Les artefacts sont encore plus visibles lorsque l'on s'intéresse aux animations, des artefacts temporels s'ajoutant aux artefacts spatiaux. L'objectif de cette thèse est d'une part de formaliser et mesurer ces artefacts en tenant compte de la perception humaine, et d'autre part de proposer de nouvelles méthodes de stylisation interactive d'animations 3D. Nous présentons tout d'abord un ensemble de techniques pour créer et assurer la cohérence de dessins au trait extraits de scènes 3D animées. Nous proposons ensuite deux méthodes de stylisation des régions de couleur permettant la créations d'un grand nombre de motifs. Le point commun à toutes ces approches est la représentation du médium simulé (pigment d'aquarelle, coup de crayon ou de pinceau...) par une texture évoluant au cours de l'animation. Nous décrivons enfin deux expériences utilisateurs visant à évaluer perceptuellement la qualité des résultats produits par ce type de techniques.
12

Michel, Élie. "Interactive authoring of 3D shapes represented as programs". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Malgré la constante amélioration de la technique et du matériel informatique, permettant de manipuler du contenu numérique de plus en plus volumineux, la création de scènes virtuelles 3D reste une tâche complexe; du fait notamment de la charge cognitive qu'elle impose aux artistes. Afin de fluidifier la création, des représentations d'ordre supérieur des formes 3D ont vu le jour~: une forme est encodée en tant qu'elle est un programme qui génère sa géométrie. Cela rend possible une meilleure organisation de la charge cognitive lors de la création, mais possède néanmoins ses propres sources de friction. Nous étudions au cours de cette thèse les défis et opportunités induits par la représentation par programme des formes 3D, dans le contexte de la création de contenu numérique. Nous cherchons à ce que l'interaction avec les formes reste autant que possible dans l'espace 3D, au lieu d'être une manipulation de symboles abstraits dans un espace de programmation. Il est question d'une part d'assister la création des programmes décrivant les formes, de permettre à l'artiste d'opérer dans l'espace 3D tout en assurant une bonne généralisation de ses actions lorsque les variables libres du programme sont modifiées, et d'autre part d'aider au contrôle de ces variables en permettant la manipulation directe de la géométrie générée par le programme. Nous explorons la diversité de possibilités de représentation des formes par un programme, en nous focalisant sur différents paradigmes de programmation visuelle, allant des graphes orientés acycliques (DAG), impératifs, aux tuiles de Wang, déclaratives, en passant par des approches plus hybrides. Dans tous les cas, nous étudions des programmes de forme capables d'être évalués en temps interactif, de sorte qu'ils aient leur place dans un processus de création; aussi étendons-nous notre étude aux synergies que ces représentations par programme peuvent établir avec les systèmes de rendu en temps réel. Nous rendons possible l'utilisation de méthodes de manipulation directe sur la géométrie générée par DAG grâce à un jeu de règles de réécriture automatique et un filtre non linéaire de donnée différentielle. Nous aidons la création de programmes de forme impératifs en transformant des sélections d'éléments géométriques en des requêtes sémantiques, et la création de programmes déclaratifs en proposant un mode d'édition du contenu géométrique de tuiles de Wang centré sur les sections aux interfaces entre tuiles. Nous étendons les moteurs de pavage par tuiles pour prendre en compte des paramètres continus et suggérer automatiquement de nouvelles tuiles à ajouter. Nous intégrons les programmes de forme à la boucle de retour visuel en délégant l'évaluation du contenu des tuiles au système de rendu en temps-réel, et exploitons la sémantique du programme pour dériver un système de niveau de détails par imposteurs visuels.En résumé, notre série de contributions vise à tirer parti des représentations par programme des formes pour faire du processus de création de scènes numérique 3D une tâche plus artistique et moins technique qu'elle ne l'est
Although hardware and techniques have considerably improved over the years at handling heavy content, digital 3D creation remains fairly complex, partly because the bottleneck also lies in the cognitive load imposed over the designers. A recent shift to higher-order representation of shapes, encoding them as computer programs that generate their geometry, enables creation pipelines that better manage the cognitive load, but this also comes with its own sources of friction. We study in this thesis new challenges and opportunities introduced by program-based representations of 3D shapes in the context of digital content authoring. We investigate ways for the interaction with the shapes to remain as much as possible in 3D space, rather than operating on abstract symbols in program space. This includes both assisting the creation of the program, by allowing manipulation in 3D space while still ensuring a good generalization upon changes of the free variables of the program, and helping one to tune these variables by enabling direct manipulation of the output of the program. We explore diversity of program-based representations, focusing various paradigms of visual programming interfaces, from the imperative directed acyclic graphs (DAG) to the declarative Wang tiles, through more hybrid approaches. In all cases we study shape programs that evaluate at interactive rate, so that they fit in a creation process, and we push this by studying synergies of program-based representations with real time rendering pipelines.We enable the use of direct manipulation methods on DAG output thanks to automated rewriting rules and a non-linear filtering of differential data. We help the creation of imperative shape programs by turning geometric selection into semantic queries and of declarative programs by proposing an interface-first editing scheme for authoring 3D content in Wang tiles. We extend tiling engines to handle continuous tile parameters and arbitrary slot graphs, and to suggest new tiles to add to the set. We blend shape programs into the visual feedback loop by delegating tile content evaluation to the real-time rendering pipeline or exploiting the program's semantics to drive an impostor-based level-of-details system. Overall, our series of contributions aims at leveraging program-based representations of shapes to make the process of authoring 3D digital scenes more of an artistic act and less of a technical task
13

Fülöp-Balogh, Beatrix-Emőke. "Acquisition multi-vues et rendu de scènes animées". Thesis, Lyon, 2021. http://www.theses.fr/2021LYSE1308.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les récentes percées technologiques ont conduit à une abondance d'appareils d'enregistrement vidéo conviviaux. De nos jours, les nouveaux modèles de smartphones, par exemple, sont équipés non seulement de plusieurs caméras, mais également de capteurs de profondeur. Cela signifie que tout événement peut facilement être capturé par plusieurs appareils et technologies différents en même temps, et cela soulève des questions sur la façon dont on peut traiter les données afin de restituer une scène 3D significative. La plupart des solutions actuelles se concentrent uniquement sur les scènes statiques, les scanners LiDaR produisent des cartes de profondeur extrêmement précises et les algorithmes stéréo multi-vues peuvent reconstruire une scène en 3D à partir d'une poignée d'images. Cependant, ces idées ne sont pas directement applicables en cas de scènes dynamiques. Les capteurs de profondeur échangent la précision contre la vitesse, ou vice versa, et les méthodes basées sur des images couleur souffrent d'incohérences temporelles ou sont trop exigeantes en termes de calcul. Dans cette thèse, nous visons à fournir des solutions conviviales pour fusionner des technologies multiples, éventuellement hétérogènes, pour reconstruire et rendre des scènes dynamiques 3D. Premièrement, nous introduisons un algorithme qui corrige les distorsions produites par de petits mouvements dans les acquisitions de temps de vol et produit une séquence animée corrigée. Pour ce faire, nous combinons un système LiDAR à temps de vol lent mais haute résolution et un capteur de profondeur consommateur rapide mais basse résolution. Nous avons présenté le problème comme un recalage courbe-volume, en voyant le nuage de points LiDAR comme une courbe dans l'espace-temps à 4 dimensions et la vidéo de profondeur à basse résolution capturée comme un volume d'espace-temps à 4 dimensions. Nous convoyons ensuite les détails du nuage de points haute résolution à la vidéo de profondeur en utilisant son flux optique. Deuxièmement, nous abordons le cas de la reconstruction et du rendu de scènes dynamiques capturées par plusieurs caméras RVB. Dans des contextes occasionnels, les deux problèmes sont difficiles à fusionner : la structure à partir du mouvement (SfM) produit des nuages de points spatio-temporellement instables et parcimonieux, tandis que les algorithmes de rendu qui reposent sur la reconstruction doivent produire des vidéos temporellement cohérentes. Pour relever le défi, nous considérons les deux étapes conjointement. Tout d'abord, pour SfM, nous récupérons des poses de caméra stables, puis nous différons l'exigence de points cohérents dans le temps sur la scène et ne reconstruisons qu'un nuage de points épars par pas de temps qui est bruité dans l'espace-temps. Deuxièmement, pour le rendu, nous présentons une formulation de diffusion variationnelle sur les profondeurs et les couleurs qui nous permet de faire face de manière robuste au bruit en appliquant une cohérence spatio-temporelle via des poids de reprojection par pixel dérivés des vues d'entrée. Dans l'ensemble, nous montrons que notre travail a contribué à la compréhension de l'acquisition et du rendu de scènes dynamiques capturées simplement
Recent technological breakthroughs have led to an abundance of consumer friendly video recording devices. Nowadays new smart phone models, for instance, are equipped not only with multiple cameras, but also depth sensors. This means that any event can easily be captured by several different devices and technologies at the same time, and it raises questions about how one can process the data in order to render a meaningful 3D scene. Most current solutions focus on static scenes only, LiDar scanners produce extremely accurate depth maps, and multi-view stereo algorithms can reconstruct a scene in 3D based on a handful of images. However, these ideas are not directly applicable in case of dynamic scenes. Depth sensors trade accuracy for speed, or vice versa, and color image based methods suffer from temporal inconsistencies or are too computationally demanding. In this thesis we aim to provide consumer friendly solutions to fuse multiple, possibly heterogeneous, technologies to reconstruct and render 3D dynamic scenes. Firstly, we introduce an algorithm that corrects distortions produced by small motions in time-of-flight acquisitions and outputs a corrected animated sequence. We do so by combining a slow but high-resolution time-of-flight LiDAR system and a fast but low-resolution consumer depth sensor. We cast the problem as a curve-to-volume registration, by seeing the LiDAR point cloud as a curve in the 4-dimensional spacetime and the captured low-resolution depth video as a 4-dimensional spacetime volume. We then advect the details of the high-resolution point cloud to the depth video using its optical flow. Second, we tackle the case of the reconstruction and rendering of dynamic scenes captured by multiple RGB cameras. In casual settings, the two problems are hard to merge: structure from motion (SfM) produces spatio-temporally unstable and sparse point clouds, while the rendering algorithms that rely on the reconstruction need to produce temporally consistent videos. To ease the challenge, we consider the two steps together. First, for SfM, we recover stable camera poses, then we defer the requirement for temporally-consistent points across the scene and reconstruct only a sparse point cloud per timestep that is noisy in space-time. Second, for rendering, we present a variational diffusion formulation on depths and colors that lets us robustly cope with the noise by enforcing spatio-temporal consistency via per-pixel reprojection weights derived from the input views. Overall, our work contributes to the understanding of the acquisition and rendering of casually captured dynamic scenes
14

Lerbour, Raphaël. "Chargement progressif et rendu adaptatif de vastes terrains". Phd thesis, Rennes 1, 2009. https://theses.hal.science/docs/00/46/16/67/PDF/thesis_lerbour_final.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons des solutions pour le chargement progressif et le rendu adaptatif de vastes terrains. Cela peut servir notamment à visualiser la Terre en 3D sur un ordinateur en chargeant les données depuis une immense base de données via un réseau. Dans la première partie de cette thèse, nous introduisons une solution générique pour manipuler des cartes d'échantillons de taille quelconque depuis un serveur jusqu'à un système de rendu client. Nos méthodes s'adaptent aux performances du réseau et du rendu et évitent de traiter des données redondantes. Dans une deuxième partie, nous utilisons cette solution pour permettre le rendu 3D temps réel de vastes terrains texturés. De plus, nous supportons des terrains planétaires et réduisons les incohérences visuelles dues à la projection cartographique et à la précision du rendu. Enfin, nous proposons des algorithmes permettant de créer des bases de données serveur à partir d'immenses cartes d'échantillons
In this thesis, we propose solutions to perform adaptive streaming and rendering of arbitrary large terrains. One interesting application is to interactively visualize the Earth in 3D on a computer while loading the required data from a huge database over a network. In the first part of this thesis, we introduce a generic solution to handle sample maps of any size from a server hard disk all the way to a client rendering system. Our methods adapt to the speed of the network and of the rendering and avoid handling redundant data. In a second part, we build upon the generic solution to propose real-time 3D rendering of large textured terrains on graphics hardware. In addition, we support planetary terrains and use techniques that prevent handling redundant data and limit typical rendering inconsistencies due to map projection and rendering precision. Finally, we propose preprocessing algorithms that allow to build server databases from huge sample maps
15

Lerbour, Raphaël. "Chargement progressif et rendu adaptatif de vastes terrains". Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00461667.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons des solutions pour le chargement progressif et le rendu adaptatif de vastes terrains. Cela peut servir notamment à visualiser la Terre en 3D sur un ordinateur en chargeant les données depuis une immense base de données via un réseau. Dans la première partie de cette thèse, nous introduisons une solution générique pour manipuler des cartes d'échantillons de taille quelconque depuis un serveur jusqu'à un système de rendu client. Nos méthodes s'adaptent aux performances du réseau et du rendu et évitent de traiter des données redondantes. Dans une deuxième partie, nous utilisons cette solution pour permettre le rendu 3D temps réel de vastes terrains texturés. De plus, nous supportons des terrains planétaires et réduisons les incohérences visuelles dues à la projection cartographique et à la précision du rendu. Enfin, nous proposons des algorithmes permettant de créer des bases de données serveur à partir d'immenses cartes d'échantillons.
16

Graglia, Florian. "Amélioration du photon mapping pour un scénario walkthrough dans un objectif de rendu physiquement réaliste en temps réel". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4072.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'un des objectifs lors du développement d'un produit industriel est d'obtenir un prototype numérique valide et réaliste. Cette thèse a pour objectif d'améliorer la qualité des simulations dans le contexte d'un processus de production. Ces processus impliquent souvent un rendu de type "walkthrough", avec une géométrie fixe mais un déplacement continu de l'observateur. Nous nous intéresserons donc plus précisément aux méthodes de rendu physiquement réaliste de scènes complexes pour un scénario "walkthrough". Durant le rendu, l'utilisateur doit pouvoir mesurer précisément la radiance d'un point ou d'une zone donnée, ainsi que modifier en temps réel la puissance des sources lumineuses. Fondée sur la méthode du photon mapping, nos travaux montrent les modifications à apporter aux algorithmes afin d'améliorer à la fois la qualité des images et le temps de calcul du processus de rendu
One of the goals when developing the product is to immediately obtain a real and valid prototype. This thesis provide new rendering methods to increase the quality of the simulations during the upstream work of the production pipeline. The latter usually requires a walkthrough rendering. Thus, we focuses on the physically-based rendering methods of complex scenes in walkthrough. During the rendering, the end-users must be able to measure the illuminate rates and to interactively modify the power of the light source to test different lighting ambiances. Based on the original photon mapping method, our work shows how some modifications can decrease the calculation time and improve the quality of the resulting images according to this specific context
17

Grabli, Stéphane. "Le style dans le rendu non-photoréaliste de dessins au trait à partir de scènes 3D : une approche programmable". Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00009401.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'intéresse à la génération d'illustrations "non-photoréalistes" (imitant par exemple des dessins ou des peintures) à partir de scènes 3D. L'abstraction ou la stylisation apportent à ce type de rendu des qualités communicatives, esthétiques et expressives qui le distinguent de la synthèse d'images classique. Les objectifs sont, d'une part, de fournir à l'utilisateur un contrôle flexible sur le style du rendu non-photoréaliste et, d'autre part, de proposer une formulation du style qui en permette la réutilisation pour le rendu de différentes scènes 3D. Nous avons choisi d'adopter une approche programmable qui s'appuie sur le postulat selon lequel les attributs de style (couleur, épaisseur, ...) sont choisis en fonction d'informations génériques de la scène (nature des lignes, discontinuité en profondeur, ...), et s'inspire des approches procédurales (telles que Pixar Renderman). L'idée consiste à exprimer un style comme un ensemble de procédures spécifiant les relations attributs/informations : l'utilisateur "programme" une feuille de style qui peut ensuite être utilisée pour le rendu de plusieurs scènes 3D différentes ou de plusieurs images d'une séquence animée. Cette approche est la première à offrir à la fois un contrôle flexible sur le style du rendu et une formulation réutilisable de ce style.
18

Vanhoey, Kenneth. "Traitement conjoint de la géométrie et de la radiance d'objets 3D numérisés". Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis quelques décennies, les communautés d'informatique graphique et de vision ont contribué à l'émergence de technologies permettant la numérisation d'objets 3D. Une demande grandissante pour ces technologies vient des acteurs de la culture, notamment pour l'archivage, l'étude à distance et la restauration d'objets du patrimoine culturel : statuettes, grottes et bâtiments par exemple. En plus de la géométrie, il peut être intéressant de numériser la photométrie avec plus ou moins de détail : simple texture (2D), champ de lumière (4D), SV-BRDF (6D), etc. Nous formulons des solutions concrètes pour la création et le traitement de champs de lumière surfaciques représentés par des fonctions de radiance attachés à la surface.Nous traitons le problème de la phase de construction de ces fonctions à partir de plusieurs prises de vue de l'objet dans des conditions sur site : échantillonnage non structuré voire peu dense et bruité. Un procédé permettant une reconstruction robuste générant un champ de lumière surfacique variant de prévisible et sans artefacts à excellente, notamment en fonction des conditions d'échantillonnage, est proposé. Ensuite, nous suggérons un algorithme de simplification permettant de réduire la complexité mémoire et calculatoire de ces modèles parfois lourds. Pour cela, nous introduisons une métrique qui mesure conjointement la dégradation de la géométrie et de la radiance. Finalement, un algorithme d'interpolation de fonctions de radiance est proposé afin de servir une visualisation lisse et naturelle, peu sensible à la densité spatiale des fonctions. Cette visualisation est particulièrement bénéfique lorsque le modèle est simplifié
Vision and computer graphics communities have built methods for digitizing, processing and rendering 3D objects. There is an increasing demand coming from cultural communities for these technologies, especially for archiving, remote studying and restoring cultural artefacts like statues, buildings or caves. Besides digitizing geometry, there can be a demand for recovering the photometry with more or less complexity : simple textures (2D), light fields (4D), SV-BRDF (6D), etc. In this thesis, we present steady solutions for constructing and treating surface light fields represented by hemispherical radiance functions attached to the surface in real-world on-site conditions. First, we tackle the algorithmic reconstruction-phase of defining these functions based on photographic acquisitions from several viewpoints in real-world "on-site" conditions. That is, the photographic sampling may be unstructured and very sparse or noisy. We propose a process for deducing functions in a manner that is robust and generates a surface light field that may vary from "expected" and artefact-less to high quality, depending on the uncontrolled conditions. Secondly, a mesh simplification algorithm is guided by a new metric that measures quality loss both in terms of geometry and radiance. Finally, we propose a GPU-compatible radiance interpolation algorithm that allows for coherent radiance interpolation over the mesh. This generates a smooth visualisation of the surface light field, even for poorly tessellated meshes. This is particularly suited for very simplified models
19

Pujades, Rocamora Sergi. "Modèles de caméras et algorithmes pour la création de contenu video 3D". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM039/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Des optiques à longue focale ont été souvent utilisées dans le cinéma 2D et la télévision, soit dans le but de se rapprocher de la scène, soit dans le but de produire un effet esthétique grâce à la déformation de la perspective. Toutefois, dans le cinéma ou la télévision 3D, l'utilisation de longues focales crée le plus souvent un "effet carton” ou de la divergence oculaire.Pour résoudre ce problème, les méthodes de l'état de l'art utilisent des techniques de transformation de la disparité, qui sont une généralisation de l'interpolation de points de vue.Elles génèrent de nouvelles paires stéréoscopiques à partir des deux séquences d'images originales. Nous proposons d'utiliser plus de deux caméras pour résoudre les problèmes non résolus par les méthodes de transformation de la disparité.Dans la première partie de la thèse, nous passons en revue les causes de la fatigue visuelle et de l'inconfort visuel lors de la visualisation d'un film stéréoscopique. Nous modélisons alors la perception de la profondeur de la vision stéréoscopique d'une scène filmée en 3D avec deux caméras, et projetée dans une salle de cinéma ou sur un téléviseur 3D. Nous caractérisons mathématiquement cette distorsion 3D, et formulons les contraintes mathématiques associées aux causes de la fatigue visuelle et de l'inconfort. Nous illustrons ces distorsions 3D avec un nouveau logiciel interactif, la “salle de projection virtuelle".Afin de générer les images stéréoscopiques souhaitées, nous proposons d'utiliser le rendu basé image. Ces techniques comportent généralement deux étapes. Tout d'abord, les images d'entrée sont transformées vers la vue cible, puis les images transformées sont mélangées. Les transformations sont généralement calculés à l'aide d'une géométrie intermédiaire (implicite ou explicite). Le mélange d'images a été largement étudié dans la littérature et quelques heuristiques permettent d'obtenir de très bonnes performances.Cependant, la combinaison des heuristiques proposées n'est pas simple et nécessite du réglage manuel de nombreux paramètres.Dans cette thèse, nous proposons une nouvelle approche bayésienne au problème de synthèse de nouveaux points de vue, basé sur un modèle génératif.Le modèle génératif proposé tient compte de l'incertitude sur la transformation d'image. Le formalisme bayésien nous permet de déduire l'énergie du modèle génératif et de calculer les images désirées correspondant au maximum a posteriori. La méthode dépasse en termes de qualité les techniques de l'état de l'art du rendu basé image sur des jeux de données complexes. D'autre part, les équations de l'énergie fournissent une formalisation des heuristiques largement utilisés dans les techniques de rendu basé image.Le modèle génératif proposé aborde également le problème de la super-résolution, permettant de rendre des images à une résolution plus élevée que les images de départ.Dans la dernière partie de cette thèse, nous appliquons la nouvelle technique de rendu au cas du zoom stéréoscopique et nous montrons ses performances
Optics with long focal length have been extensively used for shooting 2D cinema and television, either to virtually get closer to the scene or to produce an aesthetical effect through the deformation of the perspective. However, in 3D cinema or television, the use of long focal length either creates a “cardboard effect” or causes visual divergence. To overcome this problem, state-of-the-art methods use disparity mapping techniques, which is a generalization of view interpolation, and generate new stereoscopic pairs from the two image sequences. We propose to use more than two cameras to solve for the remaining issues in disparity mapping methods.In the first part of the thesis, we review the causes of visual fatigue and visual discomfort when viewing a stereoscopic film. We then model the depth perception from stereopsis of a 3D scene shot with two cameras, and projected in a movie theater or on a 3DTV. We mathematically characterize this 3D distortion, and derive the mathematical constraints associated with the causes of visual fatigue and discomfort. We illustrate these 3D distortions with a new interactive software, “The Virtual Projection Room”.In order to generate the desired stereoscopic images, we propose to use image-based rendering. Those techniques usually proceed in two stages. First, the input images are warped into the target view, and then the warped images are blended together. The warps are usually computed with the help of a geometric proxy (either implicit or explicit). Image blending has been extensively addressed in the literature and a few heuristics have proven to achieve very good performance. Yet the combination of the heuristics is not straightforward, and requires manual adjustment of many parameters.In this thesis, we propose a new Bayesian approach to the problem of novel view synthesis, based on a generative model taking into account the uncertainty of the image warps in the image formation model. The Bayesian formalism allows us to deduce the energy of the generative model and to compute the desired images as the Maximum a Posteriori estimate. The method outperforms state-of-the-art image-based rendering techniques on challenging datasets. Moreover, the energy equations provide a formalization of the heuristics widely used in image-based rendering techniques. Besides, the proposed generative model also addresses the problem of super-resolution, allowing to render images at a higher resolution than the initial ones.In the last part of this thesis, we apply the new rendering technique to the case of the stereoscopic zoom and show its performance
20

Leray, Pascal. "Modélisation et architecture de machines de sysnthèse d'images pour la représentation d'images et le rendu d'objets tri-dimensionnels (3D)sur écrans graphiques à balayage". Paris 2, 1990. http://www.theses.fr/1990PA020117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modelisation des objets et le rendu realiste de l'image sont les deux taches fondamentales necessaires a la synthese d'image tri-dimensionnelle (3d). A la modelisation des objets est utilisee pour constituer une representation interne au systeme informatique des objets 3d. Cette modelisation peut etre rapprochee des representations mentales de l'environnement constituees dans le cerveau humain. B la synthese ou rendu est utilise pour afficher des images realistes de notre monde 3d : il peut etre rapproche de la faculte de dessiner de l'homme. Mais a l'heure actuelle dans les stations graphiques ces deux taches sont dissociees, a la difference du dessinateur humain qui analyse en permanence ce qu'il trace et le compare a la representation mentale interne de son cerveau. Notre premier but est de faire l'inventaire des techniques existantes de modelisation et de rendu. Ensuite nous decrivons deux solutions nouvelles pour : - un systeme de numerisation-modelisation directe d'objets sur station de travail - une nouvelle architecture de machine de rendu. Enfin, nous introduisons le concept de reseaux neuronaux et nous expliquons comment ceux-ci peuvent etre utilises dans les taches a et b de maniere similaire a l'extraction de formes et d'informations semantiques a partir de l'ombrage des images (shape from shading) realise dans le cerveau humain. Nous brossons en conclusion un tableau prospectif de la synthese d'image 3d, dans laquelle l'analyse d'objets et les reseaux neuronaux seront de plus en plus associes. Ces deux techniques complementaires et reversibles pourraient apporter des possibilites insoupconnees a la conception de formes, aux banques
Solid modelling and image rendering are the two fundamental tasks for 3d image synthesis a solid modelling is used to represent internal 3d data base, strongly correlated with mental representation of the world in the humain brain. B image rendering is used to display realistic images of our 3d world : it can be coupled with the drawing possibilities of mankind. But at present in our graphic workstations, these two tasks are not associated, at the difference of the humain beeing, which analyses in real time what he draws, and compares it to its mental representations of the environment. The first goal of this report is to analyse existing tools which are currently used in tasks a and b after we describe two new solutions for : a direct digititizing system of 3d objects a new architecture for rendering at the end, we introduce the new concept of neural networks, and we explain how it could be used to perform tasks a and b , as it is associated in the humain brain with image analysis by shape from shading techniques. Conclusion is a projection on future image synthesis systems, where 3d object analysis based on shape from shading and neural network could be tightly coupled with image rendering. These two processes could be at that time reversible, giving large new possibilities to computer design, picture data bases
21

Li, Rui. "Multi-scale simplification and visualization of large 3D models". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'intéresse à la création et à la visualisation interactive de maillages surfaciques issus de données massives, telles que celles obtenues suite à l'emploi de scanners à télédétection laser ou de prises de vues multiples. Ces dernières années ont en effet vu l'accélération du développement, de la miniaturisation et de la démocratisation de ces dispositifs de capture visant une représentation fine du réel. Les données brutes issues des captures, par exemple en géographie, archéologie ou en médecine sont difficiles à exploiter car volumineuses et désordonnées. Pour faire face à ce défi, la première étape d'une chaîne de traitement consiste classiquement en la création d'un maillage très haute résolution. La solution retenue doit palier au mieux les bruits de mesure et reproduire la topologie de l'objet étudié. L'augmentation de la résolution des dispositifs de capture, des capacités de mémoire et de traitement du matériel de visualisation rend souvent impraticable la visualisation interactive des maillages haute résolution. Ces maillages de dizaines de millions voire plusieurs milliards d'éléments sont un défi pour le matériel et pour le transfert de données entre les composants de la chaîne. L'étape suivante implique la création d'une hiérarchie de maillages simplifiés dérivant de l'original, les pertes de détail à chaque simplification étant contrôlées. Bien que cette approche semble contourner le problème au lieu de le résoudre, seul le niveau de détail importe en visualisation. Ainsi, il devient possible de découper les niveaux de maillage en sous-parties, les sélectionner et les recombiner à la volée pour suivre les mouvements du point d'observation en optimisant partout le niveau de détail apparent. Dans la première partie de la thèse, nous proposons une approche qui s'attache à résoudre les deux difficultés principales inhérentes à la gestion simultanée de plusieurs morceaux de maillages de résolutions différentes : les défauts de jointures ("mesh cracks''), et les problèmes de discontinuité temporelle suite aux changements de résolutions ("LOD popping''). Cette approche, dans la longue lignée de travaux ayant abordé ces questions, s'inscrit au carrefour entre les techniques basées sur le morphing entre maillages et celles basées sur les multi-triangulations. Nous l'accompagnons d'une implémentation de référence, ainsi que d'un prototype de visualiseur léger servant de preuve de concept. La partie pré-traitement, qui construit la hiérarchie à partir du maillage haute résolution, se distingue par une capacité de l'ordre du million de triangles par seconde et par cœur de calcul, ce qui représente un ordre de grandeur de gain par rapports aux solutions existantes que nous avons pu tester. Dans la seconde partie de la thèse, nous abordons la question de la construction du maillage haute résolution à partir d'un nuage de points dans le cas spécifique du Lidar aéroporté. Nous montrons que la fiabilité des méthodes classiques d'estimation de normales peut être nettement améliorée en tenant compte de données propres à de tels relevés : horodatage des points et angle du faisceau laser notamment. Cette amélioration a une incidence cruciale sur la qualité de la reconstruction ultérieure d'un maillage surfacique par la méthode dite de Poisson. Cette dernière obtient le maillage comme surface de niveau d'une fonction scalaire, elle-même obtenue par la résolution d'un problème de Poisson pour lequel le nuage de points orientés intervient dans la définition du terme source. Nous appliquons ces méthodes aux données libres récentes des programmes Lidar suisse (SwissSurface3D) et français (Lidar HD), et montrons qu'elles permettent une reproduction plus fidèle que les méthodes classiques basées sur les grilles à pas régulier (modèle numériques de terrain), d'autant plus dans les zones montagneuses
This thesis focuses on the creation and interactive visualization of surface meshes derived from massive data, such as those obtained from the use of laser remote sensing scanners or multiple-view image captures. Recent advancements in the development, miniaturization, and widespread accessibility of these capture devices aim to provide a detailed representation of reality.The raw data resulting from these captures, whether in geographic information, archaeology, or medicine, often pose challenges due to their voluminous and disorganized nature. To address this challenge, the first step in a processing pipeline typically involves the creation of a high-resolution mesh. The chosen solution must effectively mitigate measurement noise and accurately reproduce the topology of the target object. As capture devices have advanced in resolution, visualization hardware has improved in memory capacity and processing speed. However, it has become impractical to interactively visualize high-resolution meshes, containing tens of millions or even billions of elements. Handling such data flow by hardware and transferring it between pipeline components present significant challenges. The subsequent step involves constructing a hierarchy of simplified meshes derived from the high-resolution mesh, with each simplification introducing controlled detail loss. While it might appear that processing capacity comes at the expense of detail, for visualization purposes, only the apparent level of detail matters. Portions distant from the point of observation require a lower absolute level of detail than those nearby. This enables the subdivision of different mesh levels into subparts, dynamically selecting and recombining them to adapt to changes in viewpoint, ensuring an optimal apparent level of detail.In the first part of the thesis, we introduce an approach aimed at addressing the two main challenges inherent in the simultaneous management of multiple pieces of meshes with different resolutions: mesh junction issues (known as "mesh cracks") and temporal discontinuity problems resulting from resolution changes (referred to as "LOD popping"). This approach, situated at the intersection of techniques based on mesh morphing and those rooted in multi-triangulations, continues a long lineage of research in these areas. We accompany it with both a reference implementation and a lightweight visualization prototype serving as a proof of concept. The preprocessing phase, responsible for constructing the hierarchy from the high-resolution mesh, stands out with a processing capacity on the order of one million triangles per second per processing core. This represents a substantial order of magnitude improvement compared to the existing solutions we have had the opportunity to evaluate.In the second part of the thesis, we dig into the construction of high-resolution meshes from a point cloud, specifically in the case of airborne LiDAR. We demonstrate that the reliability of conventional methods for normal estimation can be significantly enhanced by taking into account data specific to such surveys, including point timestamps and laser beam angles. This improvement has a crucial impact on the quality of subsequent surface mesh reconstruction using the Poisson method. The Poisson method derives the mesh as the level surface of a scalar function, itself obtained by solving a Poisson problem in which the oriented point cloud contributes to defining the source term. We apply these methods to recent open LiDAR data from Swiss (SwissSurface3D) and French (Lidar HD) LiDAR programs, demonstrating that they enable a more faithful reproduction compared to classical methods based on regular altitude grids (digital elevation models), particularly in mountainous areas
22

Holländer, Matthias. "Synthèse géométrique temps réel". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
23

Sarton, Jonathan. "Visualisations interactives haute-performance de données volumiques massives : une approche out-of-core multi-résolution basée GPUs". Thesis, Reims, 2018. http://www.theses.fr/2018REIMS022/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de cette thèse s'inscrivent dans le cadre du projet PIA2 3DNeuroSecure. Ce dernier vise à proposer un système collaboratif de navigation multi-échelle interactive dans des données visuelles massives (Visual Big Data) ayant pour cadre applicatif l'imagerie biomédicale 3D ultra-haute résolution (ordre du micron) possiblement multi-modale. En outre, ce système devra être capable d'intégrer divers traitements et/ou annotations (tags) au travers de ressources HPC distantes. Toutes ces opérations doivent être envisagées sans possibilité de stockage complet en mémoire (techniques out-of-core : structures pyramidales, tuilées, … avec ou sans compression …). La volumétrie des données images envisagées (Visual Big Data) induit par ailleurs le découplage des lieux de capture/imagerie/génération (histologie, confocal, imageurs médicaux variés, simulation …), de ceux de stockage et calcul haute performance (data center) mais aussi de ceux de manipulation des données acquises (divers périphériques connectés, mobiles ou non, tablette, PC, mur d’images, salle de RV …). La visualisation restituée en streaming à l’usager sera adaptée à son périphérique, tant en termes de résolution (Full HD à GigaPixel) que de rendu 3D (« à plat » classique, en relief stéréoscopique à lunettes, en relief autostéréoscopique sans lunettes). L'ensemble de ces développements pris en charge par le CReSTIC avec l'appui de la MaSCA (Maison de la Simulation de Champagne-Ardenne) se résument donc par : - la définition et la mise en oeuvre des structures de données adaptées à la visualisation out-of-core des visual big data (VBD) ciblées - l’adaptation des traitements spécifiques des partenaires comme des rendus 3D interactifs à ces nouvelles structures de données - les choix techniques d’architecture pour le HPC et la virtualisation de l’application de navigation pour profiter au mieux des ressources du datacanter local ROMEO. Le rendu relief avec ou sans lunettes, avec ou sans compression du flux vidéo relief associé seront opérés au niveau du logiciel MINT de l’URCA qui servira de support de développement
These thesis studies are part of the PIA2 project 3DNeuroSecure. This one aims to provide a collaborative system of interactive multi-scale navigation within visual big data (VDB) with ultra-high definition (tera-voxels), potentially multimodal, 3D biomedical imaging as application framework. In addition, this system will be able to integrate a variety of processing and/or annotations (tags) through remote HPC resources. All of these treatments must be possible in an out-of-core context. Because of the visual big data, we have to decoupled the location of acquisition from ones of storage and high performance computation and from ones for the manipulation of the data (various connected devices, mobile or not, smartphone, PC, large display wall, virtual reality room ...). The streaming visualization will be adapted to the user device in terms of both resolution (Full HD to GigaPixel) and 3D rendering (classic rendering on 2D screens, stereoscopic with glasses or autostereoscopic without glasses). All these developments supported by the CReSTIC with the support of MaSCA (Maison de la Simulation de Champagne-Ardenne) can therefore be summarized as: - the definition and implementation of the data structures adapted to the out-of-core visualization of the targeted visual big data. - the adaptation of the specific treatments partners, like interactive 3D rendering, to these new data structures. - the technical architecture choices for the HPC and the virtualization of the navigation software application, to take advantage of "ROMEO", the local datacenter. The auto-/stereoscopic rendering with or without glasses will be operated within the MINT software of the "université de Reims Champagne-Ardenne"
24

Rocher, Pierre-Olivier. "Transmodalité de flux d'images de synthèse". Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET2026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces dernières années, l’utilisation de la vidéo comme support de diffusion de l’information est devenue prépondérante. Selon certains analystes, d’ici 2017, environ 90% de la bande passante mondiale sera consommée par des services utilisant des flux vidéos. Basées sur ce genre de services, les solutions de cloud gaming se démocratisent. Ces solutions ont été imaginées dans un contexte de développement fort du paradigme de cloud computing, et elles ont été dopées par la prolifération des terminaux mobiles ainsi que par la qualité des réseaux qui ne cesse de croître. Les technologies mises en œuvre dans ce type de solutions se réfèrent au rendu à distance. Pour permettre au plus grand nombre l’accès à ce type d’applications, mais aussi pour maximiser le nombre de clients par serveur, il est primordial de maîtriser au mieux la bande passante nécessaire au bon fonctionnement du service. Toutes les solutions de cloud gaming existantes utilisent une compression vidéo pour la transmission des images générées sur un serveur et à destination d’un client : le pixel règne en maître. Néanmoins, il existe bien d’autres façons de représenter une image numérique, notamment de manière paramétrique. Un certain nombre de travaux – à la fois sur l’image et la vidéo – montrent que cette approche est viable. Dans cette thèse, nous proposons un espace de représentation hybride afin de réduire le débit binaire. Notre approche repose à la fois sur une approche pixel, mais aussi sur une approche paramétrique pour la compression d’un même flux vidéo. L’utilisation de deux systèmes de compression nécessite la définition de zones, auxquelles s’appliqueront les différents encodeurs. Pour le cas d’utilisation choisi, l’utilisateur étant un joueur impliqué de manière active dans la chaîne de rendu, il est intéressant d’utiliser un partitionnement de l’image dépendant des zones ou se porte son attention. Pour déterminer les zones importantes à ses yeux, un eye-tracker a été utilisé sur plusieurs jeux et par plusieurs testeurs. Cette étude permet de mettre en avant différentes corrélations, tant au niveau des caractéristiques des images que du type de jeu utilisé. Cette étude permet de connaître les zones que le joueur regarde ou ne regarde pas directement (obtention des « cartes d’attention sélective »), et ainsi de gérer les encodeurs en conséquence. Nous établissons ensuite l’architecture et l’implémentation d’un tel encodeur multimodal (que nous appelons « transmodeur ») afin d’établir la preuve de réalisation d’un tel encodeur. Profitant alors de la maîtrise complète de l’implémentation, nous nous livrons ensuite à l’analyse de l’influence des paramètres de notre transmodeur quant à son efficacité au moyen d’une étude objective. Le transmodeur a été intégré dans la chaîne de rendu utilisée par le projet XLcloud. Un certain nombre d’améliorations (au niveau des performances notamment) seront nécessaires pour une utilisation en production, mais il est dès à présent possible de l’utiliser de manière fluide en se limitant à des résolutions spatiales légèrement inférieures au 720p et à 30 images par seconde
The use of video as an information dissemination support has become preponderant during the last few years. According to some analysts, by 2017 approximately 90% of the world's bandwidth will be consumed by video streaming services. These services have encouraged cloud gaming solutions to become more democratic. Such solutions have been devised in the context of strong development of the cloud-computing paradigm, and they were driven by the proliferation of mobile devices as well as growing network quality. The technologies used in this kind of solutions refer to as remote rendering. They allow the execution of multiple applications, while maximizing the number of clients per server. Thus, it is essential to control the necessary bandwidth to allow the required functionality of various services. The existing cloud gaming solutions in the literature use various methods of video compression to transmit images between sever and clients (pixels reigns supreme). However, there are various other ways of encoding digital images, including parametric map storage and a number of studies encourage this approach (for both image and video). In this thesis, we propose a hybrid representation of space in order to reduce the bit rate. Our approach utilizes both pixel and parametric approaches for the compression of video stream. The use of two compression techniques requires defining the area to be covered by different encoders. This is accomplished by including user to the life cycle of rendering, and attending to the area mostly concerned to the user. In order to identify the area an eye-tracker device was used on several games and several testers. We also establish a correlation between the characteristics of images and the type of game. This helps to identify areas that the player looks directly or indirectly (“maps of selective attention"), and thus, encoders are manager accordingly. For this thesis, we details and implement the architecture and algorithms for such multi-model encoder (which we call "transmodeur") as proof of concept. We also provide an analytical study of out model and the influence of various parameters on transmodeur and describe in effectiveness through an objective study. Our transmodeur (rendering system) has been successfully integrated into XLcloud project for rendering purposes. A number of improvement (especially in performance) will be required for production use, but it is now possible to use it smoothly using spatial resolutions slightly lower than 720p at 30 frames per second
25

Schertzer, Jérémie. "Exploiting modern GPUs architecture for real-time rendering of massive line sets". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous considérons des grands ensembles de lignes générés à partir de tractogrammes cérébraux. Ils décrivent des connexions neuronales représentées par des millions de fibres poly-lignes, comptant des milliards de segments. Grâce au mesh shader pipeline, nous construisons un moteur de rendu de tractogrammes aux performances surpassant l'état de l'art de deux ordres de grandeur.Nos performances proviennent des fiblets : une représentation compressée de blocs de segments. En combinant cohérence temporelle et dilatation morphologique du z-buffer, nous définissons un test d'occlusion rapide pour l'élimination de fiblets. Grâce à notre algorithme de décompression parallèle fortement optimisé, les fiblets survivants sont efficacement synthétisés en poly-lignes. Nous montrons également comment notre pipeline de fiblets accélère des fonctionnalités d'interactions avancées avec les tractogrammes.Pour le cas général du rendu des lignes, nous proposons la marche morphologique : une technique en espace écran qui rend des tubes d'épaisseur modifiable à partir des lignes fines rastérisées du G-buffer. En approximant un tube comme l'union de sphères densément réparties le long de ses axes, chaque sphère occupant chaque pixel est récupérée au moyen d'un filtre multi-passes de propagation de voisinage. Accéléré par le compute pipeline, nous atteignons des performances temps réel pour le rendu de lignes épaisses.Pour conclure notre travail, nous implémentons un prototype de réalité virtuelle combinant fiblets et marche morphologique. Il permet pour la première fois la visualisation immersive de grands tractogrammes constitués de fibres épaisses, ouvrant ainsi la voie à des perspectives diverses
In this thesis, we consider massive line sets generated from brain tractograms. They describe neural connections that are represented with millions of poly-line fibers, summing up to billions of segments. Thanks to the two-staged mesh shader pipeline, we build a tractogram renderer surpassing state-of-the-art performances by two orders of magnitude.Our performances come from fiblets: a compressed representation of segment blocks. By combining temporal coherence and morphological dilation on the z-buffer, we define a fast occlusion culling test for fiblets. Thanks to our heavily-optimized parallel decompression algorithm, surviving fiblets are swiftly synthesized to poly-lines. We also showcase how our fiblet pipeline speeds-up advanced tractogram interaction features.For the general case of line rendering, we propose morphological marching: a screen-space technique rendering custom-width tubes from the thin rasterized lines of the G-buffer. By approximating a tube as the union of spheres densely distributed along its axes, each sphere shading each pixel is retrieved relying on a multi-pass neighborhood propagation filter. Accelerated by the compute pipeline, we reach real-time performances for the rendering of depth-dependant wide lines.To conclude our work, we implement a virtual reality prototype combining fiblets and morphological marching. It makes possible for the first time the immersive visualization of huge tractograms with fast shading of thick fibers, thus paving the way for diverse perspectives
26

Bouville, Rozenn. "Interopérabilité des environnements virtuels 3D : modèle de réconciliation des contenus et des composants logiciels". Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00909107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les environnements virtuels 3D sont aujourd'hui utilisés dans de nombreux domaines et couvrent de multiples usages qui vont du divertissement à l'apprentissage en passant par la conception pour l'industrie. Si leur nombre ne cesse de croître chaque année, un problème récurrent freine leur adoption et leur diffusion. Il est en effet aujourd'hui très difficile d'importer des données dans un environnement virtuel autre que celui pour lequel ces données ont été créées. Ceci entraîne de nombreux autres problèmes qui ralentissent la création d'environnements virtuels 3D, augmente leur coût de production et limite leur accès aux utilisateurs. Nous présentons ici une solution qui se propose de réconcilier les modèles existants et à venir de façon à rendre interopérables les contenus et les composants logiciels des environnements virtuels 3D. Cette solution repose sur deux éléments complémentaires: une architecture logicielle et un modèle de conteneur de formats 3D. Nous avons appelé notre système l'adaptateur de graphes de scène ou SGA. Il s'agit d'une architecture générique et modulaire qui permet le chargement de plusieurs formats 3D dans la plupart des composants logiciels des environnements virtuels 3D. Le SGA a non seulement pour rôle d'adapter tous les graphes de scène encodés dans les fichiers 3D en graphes de scène pour les composants qui sont utilisés par l'environnement virtuel mais également de gérer la synchronisation de ces graphes de scène au cours du déroulement de l'application de l'environnement virtuel. Nous avons réalisé une implémentation de cette architecture ainsi que plusieurs instanciations qui permettent le chargement de fichiers au format X3D et COLLADA dans une application dont le rendu se base sur le moteur de rendu graphique Ogre3D et le moteur physique Bullet. Ceci nous a permis de démontrer la faisabilité de cette solution et d'évaluer ses performances. Notre modèle de conteneur de formats 3D permet non seulement de composer des scènes faites à partir des plusieurs fichiers 3D mais aussi de combiner leurs fonctionnalités et de les faire interagir dans l'environnement virtuel. Ce modèle est appelé 3DFC pour conteneur de fichiers 3D et il repose sur le système du SGA pour l'adaptation des graphes de scène encapsulés dans les fichiers référencés par le conteneur. Nous avons réalisé une instanciation pour le modèle 3DFC que nous avons intégrée à notre implémentation du SGA. Nous avons ainsi pu mixer dans une même scène des modèles X3D et COLLADA et combiner les fonctionnalités d'interactions offertes par X3D avec les propriétés physiques autorisées dans COLLADA.
27

Zanuttini, Antoine. "Du photoréalisme au rendu expressif en image 3D temps réel dans le jeu vidéo : programmation graphique pour la profondeur de champ, la matière, la réflexion, les fluides et les contours". Paris 8, 2012. http://octaviana.fr/document/171326563#?c=0&m=0&s=0&cv=0.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude vise à sortir de l'esthétique standardisée des jeux vidéo par l'apport de nouvelles techniques de représentation pour l'image numérique temps réel. Le rendu dit « photoréaliste » manque souvent de contrôle et de flexibilité pour l'artiste qui cherche à aller au-delà de la fidélité au réel. La crédibilité et l'immersion passent alors par une stylisation de l'image pour proposer un visuel convaincant et esthétique. Le rendu dit « expressif » va plus loin en prenant en compte le regard personnel de l'artiste tout en se basant sur des caractéristiques et des phénomènes issus du réel pour les détourner. Nous montrerons que le photoréalisme et le rendu expressif se rejoignent et se complètent sur de nombreux points. Trois thèmes différents seront présentés du point de vue du photoréalisme et accompagnés de la création de techniques personnelles. Le thème du flou de profondeur de champ nous amènera à prendre en compte la forme de la lentille de la caméra virtuelle à travers l'algorithme des Hexagonal Summed Area Tables. Nous aborderons ensuite la matière, la lumière et surtout la réflexion spéculaire ambiante et l'importance de la parallaxe pour celle-ci. Notre troisième thème sera celui du mouvement des fluides et de l'advection de textures en fonction du courant afin d'ajouter du détail facilement et efficacement. Ces mêmes sujets seront ensuite intégrés au rendu expressif et utilisés comme des outils d'expression pour l'artiste, à travers la création d'un effet « rêve », de fluides en espace-écran et du travail de la matière hachurée. Enfin, nous présenterons nos créations spécifiquement dédiées au rendu expressif et à la stylisation des contours
This study seeks to go beyond the standardized video games aesthetics by adding new depiction techniques for real-time digital imagery. Photorealistic rendering is often limited in control and flexibility for an artist who searches beyond fidelity to real. Achieving credibility and immersion will then often require stylization for the view to be more convincing and aesthetic. Expressive rendering goes further by taking care of the artist's personal vision, while being based on some real life attributes and phenomena, altering them at the same time. We will show that photorealism and expressive rendering join and complete each other under numerous aspects. Three themes related to photorealism will be presented, then some personal original techniques will be introduced. The theme of depth of field will lead us to consider the shape of the virtual camera's lens through the Hexagonal Summed Area Table algorithm. We will then look at material, light and especially ambient and specular reflections and the importance of parallax correction with regards to them. Our third theme will be the rendering of fluid motion and the advection of textures according to the flow for easy and efficient detail addition. These three subjects will then be integrated into expressive rendering and used as expression tools for the artist, through the creation of a dream effect, of screen-space rendered fluids, and of hatched material shading. Finally, we will show our creations specifically dedicated to expressive rendering and stroke stylization
28

Chaurasia, Gaurav. "Algorithmes et analyses perceptuelles pour la navigation interactive basée image". Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00976621.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons une approche de rendu à base d'images (IBR) qui permet, à partir de photos, de naviguer librement et générer des points de vue quelconques dans des scènes urbaines. Les approches précédentes dépendent des modèles 3D et donnent lieu à des rendus de qualité réduite avec beaucoup d'artefacts. Dans cette thèse, nous proposons une approximation basée sur l'image pour compenser le manque de précision de la géométrie 3D. Nous utilisons un warp d'image guidé par des cartes de profondeur quasi-denses qui donnent lieu à beaucoup moins d'artefacts. En se basant sur cette approche, nous avons développé une méthode entièrement automatique permettant de traiter les scènes complexes. Nous sur-segmentons les images d'entrées en superpixels qui limitent les occlusions sur les bords des objets. Nous introduisons la synthèse de profondeur pour créer une approximation de cette profondeur mal reconstruite dans certaines régions et calculons les warps sur les superpixels pour synthétiser le résultat final. Nous comparons nos résultats à de nombreuses approches récentes. Nous avons analysé les artefacts de l'IBR d'un point de vue perceptif en comparant les artefacts générés par le mélange de plusieurs images avec ceux des transitions temporelles brusques et avons élaboré une méthodologie pour la sélection d'un compromis idéal entre les deux. Nous avons également analysé les distorsions perspectives et avons développé un modèle quantitatif qui permet de prédire les distorsions en fonction des paramètres de capture et de visualisation. Comme application, nous avons mis en œuvre un système de réalité virtuelle qui utilise l'IBR à la place de l'infographie traditionnelle.
29

Hadim, Julien. "Etude en vue de la multirésolution de l’apparence". Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13794/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les fonctions de texture directionnelle "Bidirectional Texture Function" (BTF) ont rencontrés un certain succès ces dernières années, notamment pour le rendu temps-réel d'images de synthèse, grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données : de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel "BTFInspect" afin de déterminer parmi les différents phénomènes visuels dans les BTFs, ceux qui influencent majoritairement la cohérence des données par texel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées Flat Bidirectional Texture Function (Flat-BTFs), qui améliore la cohérence des données d'une BTF et donc la compression des données. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous démontrons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification sur GPU et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données
In recent years, Bidirectional Texture Function (BTF) has emerged as a flexible solution for realistic and real-time rendering of material with complex appearance and low cost computing. However one drawback of this approach is the resulting huge amount of data: several methods have been proposed in order to compress and manage this data. In this document, we propose a new BTF representation that improves data coherency and allows thus a better data compression. In a first part, we study acquisition and digital generation methods of BTFs and more particularly, compression methods suitable for GPU rendering. Then, We realise a study with our software BTFInspect in order to determine among the different visual phenomenons present in BTF which ones induce mainly the data coherence per texel. In a second part, we propose a new BTF representation, named Flat Bidirectional Texture Function (Flat-BTF), which improves data coherency and thus, their compression. The analysis of results show statistically and visually the gain in coherency as well as the absence of a noticeable loss of quality compared to the original representation. In a third and last part, we demonstrate how our new representation may be used for realtime rendering applications on GPUs. Then, we introduce a compression of the appearance thanks to a quantification method on GPU which is presented in the context of a 3D data streaming between a server of 3D data and a client which want visualize them
30

Gauthier, Alban. "Morphing and level-of-detail operators for interactive digital material design and rendering". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le rendu inspiré par la physique est devenu une norme pour le rendu de matériaux numériques dans les industries créatives, telles que les jeux vidéo, les effets spéciaux, la conception de produits et l'architecture. Il permet aux développeurs et aux artistes de créer et de partager des matériaux photoréalistes prêts à l'emploi entre une grande variété d'applications.Dans ce contexte, les surfaces 3D sont mises en correspondance avec un espace de texture 2D où leurs fonctions de distribution de réflectance bidirectionnelle variant dans l'espace sont encodées sous la forme d'un ensemble d'images bitmap appelées cartes PBR, lues efficacement au cours du rendu. Ces cartes représentent des quantités physiques interprétables tout en permettant la reproduction d'un large éventail d'apparences de matériaux. Elles peuvent être reconstruites à partir de photographies du monde réel ou générées de manière procédurale.Malheureusement, ces deux approches de création de matériaux PBR nécessitent des compétences avancées et un temps considérable pour modéliser des matériaux convaincants destinés à être utilisés par des moteurs de rendu photoréalistes. De plus, bien que ces cartes soient encodées dans le même espace bidimensionnel de pixels, celles-ci décrivent des quantités de nature hétérogènes et à des échelles différentes, et qui sont en partie corrélées. L'information décrite dans ces cartes est de nature géométrique pour la hauteur et la normale, statistique pour la rugosité, ou encore colorimétrique pour l'albédo. La rugosité modélise la distribution de normales des microfacettes, dont le support dépend de la normale définissant l'espace tangent, lui-même définit par la position dans la carte de hauteur. Cette description du matériau permet des rendus rapides mais empêche l'utilisation d'outils de traitement d'images RGB conjointement sur les cartes, pour des applications d'interpolation ou de filtrage notamment.Dans cette thèse, nous explorons des opérateurs de morphing et de niveau de détail efficaces pour résoudre les difficultés susmentionnées. Nous proposons un nouvel opérateur de morphing permettant de créer de nouveaux matériaux en mélangeant simplement deux matériaux existants tout en préservant leurs caractéristiques dominantes tout au long de l'interpolation. Cet opérateur permet d'explorer l'espace des matériaux possibles en utilisant des exemples comme ancres et notre schéma d'interpolation comme moyen de navigation. Nous proposons également une nouvelle approche pour le mipmapping SVBRDF qui préserve l'apparence des matériaux sous des conditions de vue et d'éclairage variables. Ainsi, nous substituons simplement le mipmapping standard de matériaux en offrant une amélioration significative de la préservation de l'apparence, tout en gardant un unique accès texture par pixel. Ces opérateurs ont été validés expérimentalement au travers d'un grand nombre d'exemples.Globalement, les méthodes que nous proposons permettent d'interpoler les matériaux dans l'espace canonique des textures ainsi que le long de la pyramide de réduction d'échelle pour préserver et explorer l'apparence
The Physically Based Rendering workflow has become a standard for rendering digital materials for the creative industries, such as video games, visual special effects, product design and architecture. It enables developers and artists to create and share ready-to-use photorealistic materials among a wide variety of applications.In this workflow, 3D surfaces are mapped to a 2D texture space where their Spatially Varying Bidirectional Reflectance Distribution Functions are encoded as a set of bitmap images called PBR maps queried efficiently at runtime. These maps represent interpretable physically based quantities while allowing for the reproduction of a wide range of material appearances. They can be reconstructed from real-world photographs or generated procedurally.Unfortunately, both approaches to PBR material authoring require advanced skills and a significant amount of time to model convincing materials to be used by photorealistic renderers. In addition, while all channels are encoded in the same pixel grid, they describe heterogeneous quantities of very different nature at different scales that are partly correlated. The information described in the maps can be either geometrical for the height, normal, and roughness or colorimetric for the albedo. The roughness relates to the distribution of microfacet normals, embedded atop the normal's tangent plane, which location is given by the height map. This description allows for efficient renderings but prevents the use of simple image processing operators jointly across maps for interpolating or filtering.In this thesis, we explore efficient morphing and level-of-detail operators to tackle these difficulties. We propose a novel morphing operator which allows creating new materials by simply blending two existing ones while preserving their dominant structures and features all along the interpolation. This operator allows exploring large regions of the space of possible materials using exemplars as anchors and our interpolation scheme as a navigation means. We also propose a novel approach for SVBRDF mipmapping which preserves material appearance under varying view distances and lighting conditions. As a result, we obtain a drop-in replacement for standard material mipmapping, offering a significant improvement in appearance preservation while still boiling down to a single per-pixel mipmap texture fetch. These operators have been experimentally validated on a large dataset of examples.Overall, our proposed methods allow for interpolating materials in the canonical space of textures as well as along the downscaling pyramid for preserving and exploring appearance
31

Hadim, Julien. "Etude en vue de la multirésolution de l'apparence". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00434058.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les fonctions de texture directionnelle (« Bidirectional Texture Function » ou BTF) ont rencontré un certain succès ces dernières années dans le contexte de la synthèse d'images en temps-réel grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données et de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace de celles-ci. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel BTFInspect afin de déterminer parmi les différents phénomènes visuels mesurés dans les BTFs, ceux qui influencent majoritairement la cohérence des données par pixel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées « Flat Bidirectional Texture Function » Flat-BTFs, qui améliore la cohérence des données d'une BTF et synthétiques afin de valider sa mise en œuvre. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous validons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification adaptée et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données.
32

Holländer, Matthias. "Synthèse géométrique temps réel". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
33

Devillers, Olivier. "Méthodes d'optimisation du tracé de rayons". Phd thesis, Université Paris Sud - Paris XI, 1988. http://tel.archives-ouvertes.fr/tel-00772857.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le tracé de rayons est la seule technique de synthèse d'images permettant le réalisation d'effets lumineux spéculaires. Cet algorithme est très coûteux en temps de calcul. Nous nous intéressons aux diverses méthodes d'optimisation du tracé de rayons basées sur la subdivision de l'espace. Nous proposons une structure de subdivision originale : les macro-régions. Cette structure utilise un grid dans lequel les éléments de grid appartenant à des zones à faible densité d'information sont regroupées en macro-régions. Nous présentons ensuite une étude théorique et pratique du coût de dif- férentes méthodes de subdivision de l'espace : grid, octree, boîtes englobantes et la structure de macro-régions. Le coût moyen d'un rayon est étudié d'un point de vue pratique d'après les résultats d'une implantation de l'algorithme, et théorique en utilisant des résultats de géométrie stochastique. Ce coût est divisé en deux parties, on calculera tout d'abord le nombre moyen d'objets rencontrés par un rayon, puis le nombre moyen de régions rencontrées par un rayon dans les différents cas de subdivision. Cette étude fournit un certain nombre de résultats généraux permettant de mener à bien les mêmes calculs pour d'autres structures. Les résultats exposés établissent l'efficacité de la subdivision par macro- régions.
34

Cirio, Gabriel. "Retour Multimodal et Techniques d'Interaction pour des Environnements Virtuels Basés Physique et Larges". Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00652077.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Réalité Virtuelle permet de simuler et d'interagir avec des Environnements Virtuels (EV) à travers différentes modalités sensorielles. Cependant, l'interaction avec des EV basés physique et complexes, comme des environnements non rigides ou larges, présente plusieurs défis en termes d'interaction et de retours sensoriels. Dans la première partie de cette thèse, nous abordons la manipulation de milieux non rigides avec du retour haptique et multimodal. Nous présentons tout d'abord une nouvelle approche pour l'interaction haptique à 6 degrés de liberté avec des fluides. Cette approche permet la génération de retours de force lors de l'interaction avec des fluides visqueux par le biais d'objets rigides de forme arbitraire. Nous étendons ensuite cette approche pour inclure l'interaction haptique avec des objets déformables, menant donc à une interaction haptique unifiée avec les différents états de la matière. Une expérience perceptuelle nous a permis de montrer que les utilisateurs peuvent identifier de façon efficace les différents états en n'utilisant que la modalité haptique. Ensuite, nous présentons un nouveau modèle vibrotactile pour le rendu de fluides, tirant parti de connaissances dans la synthèse de son de fluides. A travers cette approche, nous rendons possible l'interaction avec des fluides tout en générant des retours multimodaux, utilisant les canaux sensoriels vibrotactile, kinesthésique, acoustique et visuel. Dans la seconde partie de cette thèse, nous abordons la navigation basée sur la marche dans des EV larges. Comme les EV sont souvent plus larges que l'espace de travail réel, nous présentons une nouvelle technique de navigation qui permet à l'utilisateur de connaître de façon immersive les limites de son espace de travail en translation. En utilisant un contrôle hybride en position/vitesse, cette technique fournit une métaphore simple et intuitive pour une navigation libre de collisions et de ruptures d'immersion. Comme certains espaces de travail présentent aussi des limites en rotation dues à des écrans manquants, comme dans le cas d'un CAVE, nous proposons ensuite trois nouvelles métaphores de navigation abordant ce problème supplémentaire. L'évaluation de ces techniques de navigation a permis de montrer qu'elles remplissent efficacement leurs objectifs tout en étant très appréciées par les utilisateurs.
35

Dupont, de Dinechin Grégoire. "Towards comfortable virtual reality viewing of virtual environments created from photographs of the real world". Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLM049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La reconstitution en réalité virtuelle de lieux, personnes, et objets réels ouvre la voie à de nombreux usages, tels que préserver et promouvoir des sites culturels, générer des avatars photoréalistes pour se retrouver virtuellement avec famille et amis à distance, ou encore recréer des lieux ou situations spécifiques à des fins thérapeutiques ou de formation. Tout cela s'appuie sur notre capacité à transformer des images du monde réel (photos et vidéos) en environnements 360° immersifs et objets 3D interactifs. Cependant, ces environnements virtuels à base d'images demeurent souvent imparfaits, et peuvent ainsi rendre le visionnage en réalité virtuelle inconfortable pour les utilisateurs. En particulier, il est difficile de reconstituer avec précision la géométrie d'une scène réelle, et souvent de nombreuses approximations sont ainsi faites qui peuvent être source d'inconfort lors de l'observation ou du déplacement. De même, il est difficile de restituer fidèlement l'aspect visuel de la scène : les méthodes classiques ne peuvent ainsi restituer certains effets visuels complexes tels que transparence et réflexions spéculaires, tandis que les algorithmes de rendu plus spécialisés ont tendance à générer des artefacts visuels et peuvent être source de latence. Par ailleurs, ces problèmes deviennent d'autant plus complexes lorsqu'il s'agit de reconstituer des personnes, l'oeil humain étant très sensible aux défauts dans l'apparence ou le comportement de personnages virtuels. Par conséquent, l'objectif de cette thèse est d'étudier les méthodes permettant de rendre les utilisateurs plus confortables lors du visionnage immersif de reconstitutions digitales du monde réel, par l'amélioration et le développement de nouvelles méthodes de création d'environnements virtuels à partir de photos. Nous démontrons et évaluons ainsi des solutions permettant (1) de fournir une meilleure parallaxe de mouvement lors du visionnage d'images 360°, par le biais d'une interface immersive pour l'estimation de cartes de profondeur, (2) de générer automatiquement des agents virtuels 3D capables d'interaction à partir de vidéos 360°, en combinant des modèles pré-entrainés d'apprentissage profond, et (3) de restituer des effets visuels de façon photoréaliste en réalité virtuelle, par le développement d'outils que nous appliquons ensuite pour recréer virtuellement la collection d'un musée de minéralogie. Nous évaluons chaque approche par le biais d'études utilisateur, et rendons notre code accessible sous forme d'outils open source
There are many applications to capturing and digitally recreating real-world people and places for virtual reality (VR), such as preserving and promoting cultural heritage sites, placing users face-to-face with faraway family and friends, and creating photorealistic replicas of specific locations for therapy and training. This is typically done by transforming sets of input images, i.e. photographs and videos, into immersive 360° scenes and interactive 3D objects. However, such image-based virtual environments are often flawed such that they fail to provide users with a comfortable viewing experience. In particular, accurately recovering the scene's 3D geometry is a difficult task, causing many existing approaches to make approximations that are likely to cause discomfort, e.g. as the scene appears distorted or seems to move with the viewer during head motion. In the same way, existing solutions most often fail to accurately render the scene's visual appearance in a comfortable fashion. Standard 3D reconstruction pipelines thus commonly average out captured view-dependent effects such as specular reflections, whereas complex image-based rendering algorithms often fail to achieve VR-compatible framerates, and are likely to cause distracting visual artifacts outside of a small range of head motion. Finally, further complications arise when the goal is to virtually recreate people, as inaccuracies in the appearance of the displayed 3D characters or unconvincing responsive behavior may be additional sources of unease. Therefore, in this thesis, we investigate the extent to which users can be made more comfortable when viewing digital replicas of the real world in VR, by enhancing, combining, and designing new solutions for creating virtual environments from input sets of photographs. We thus demonstrate and evaluate solutions for (1) providing motion parallax during the viewing of 360° images, using a VR interface for estimating depth information, (2) automatically generating responsive 3D virtual agents from 360° videos, by combining pre-trained deep learning networks, and (3) rendering captured view-dependent effects at high framerates in a game engine widely used for VR development, which we apply to digitally recreate a museum's mineralogy collection. We evaluate and discuss each approach by way of user studies, and make our codebase available as an open-source toolkit
36

Chaurasia, Gaurav. "Algorithmes et analyses perceptuelles pour la navigation interactive basé image". Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00979913.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons une approche de rendu à base d'images qui permet, à partir de photos, de naviguer librement et générer des points de vue quelconques dans des scènes urbaines. Les approches précédentes se basent sur un modèle géométrique complet et précis de la scène. La qualité des résultats produits par ces méthodes se dégrade lorsque la géométrie est approximative. Dans cette thèse, nous proposons une approximation basée sur l'image pour compenser le manque de précision de la géométrie. Dans une première approche, nous utilisons une déformation discontinue des photos guidée par des cartes de profondeur quasi-denses, ce qui produit de meilleurs résultats que le plaquage de texture utilisé par les méthodes précédentes, en particulier lorsque la géométrie est imprécise. Cette approche nécessite quelques indications utilisateur pour identifier les bordures d'occlusion dans les photos. Nous proposons ensuite une méthode entièrement automatique basée sur la même idée de déformation d'image. Cette méthode permet de traiter des scènes plus complexes avec un plus grand nombre de photos. Nous évitons l'intervention utilisateur en sur-segmentant les images d'entrées pour former des superpixels. Nous déformons chaque superpixel indépendamment en utilisant l'information de profondeur clairsemée. Nous proposons également un algorithme de synthèse de profondeur approximative pour traiter les zones de l'image où la géométrie n'est pas disponible. Nous comparons nos résultats à de nombreuses approches récentes et montrons que notre méthode permet une navigation virtuelle libre. Nous avons aussi étudié les défauts du rendu à base d'images d'un point de vue perceptif. Dans une première études controlées, nous avons évalué la perception des distorsions de perspective produites lorsqu'une seule image est projetée sur une géométrie planaire. Les données obtenues lors de cette étude nous ont permis de développer un modèle quantitatif permettant de prédire les distorsions perçues en fonction des paramètres de capture et de visualisation. Dans une autre étude nous comparons les défauts visuels produits par des transitions d'images douces ou abruptes. Nous avons déduit de cette étude des conseils pour choisir le meilleur compromis entre les deux types de transition. Ces deux études ont motivé des choix de conception de nos algorithmes de rendu à base d'images. Enfin, nous démontrons l'utilisation de notre approche pour la thérapie cognitive, ce qui représente la première application de réalité virtuelle à base d'images. Notre méthode permet de réduire considérablement le coût de modélisation 3D d'une scène de réalité virtuelle tout en produisant des visites virtuelles très réalistes.
37

Dorn, M?rcio. "Uma proposta para a predi??o computacional da estrutura 3D aproximada de polipept?deos com redu??o do espa?o conformacional utilizando an?lise de intervalos". Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2008. http://tede2.pucrs.br/tede2/handle/tede/5008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Made available in DSpace on 2015-04-14T14:48:56Z (GMT). No. of bitstreams: 1 399881.pdf: 3533066 bytes, checksum: e2d1ae8a7aab3f836474380e9a96e7c0 (MD5) Previous issue date: 2008-01-14
As prote?nas s?o polipept?deos formados por uma longa cadeia covalente de res?duos de amino?cidos que, em condi??es fisiol?gicas (ambiente nativo), adota uma topologia 3D ?nica. Estas macromol?culas est?o envolvidas na maior parte das transforma??es moleculares nas c?lulas vivas. A estrutura nativa dita a fun??o bioqu?mica espec?fica da prote?na. Conhecer a estrutura 3D da prote?na implica em tamb?m conhecer a sua fun??o. Assim, conhecendo a sua estrutura ? poss?vel interferir ativando ou inibindo a sua fun??o, como nas doen?as onde os alvos dos f?rmacos s?o as prote?nas. Experimentalmente, a estrutura 3D de uma prote?na pode ser obtida atrav?s de t?cnicas de cristalografia por difra??o de raios X ou por resson?ncia magn?tica nuclear. Por?m, devido ?s diversas dificuldades, incluindo o alto custo e o elevado tempo demandado por estas t?cnicas, a determina??o da estrutura 3D de prote?nas ainda ? um problema que desafia os cientistas. Diversos m?todos de predi??o in s?lico foram criados durante os ?ltimos anos buscando a solu??o deste problema. Estes m?todos est?o organizados em dois grandes grupos. Ao primeiro, pertencem os m?todos de modelagem comparativa por homologia e m?todos baseados em conhecimento como os de alinhavamento (threading). Ao segundo, pertencem os m?todos ab initio e os m?todos de novo. No entanto, estes m?todos de predi??o possuem limita??es: m?todos baseados em modelagem comparativa por homologia e alinhavamento somente podem realizar a predi??o de estruturas que possuem seq??ncias id?nticas ou similares ? outras prote?nas armazenadas no Protein Data Bank (PDB). M?todos de novo e ab initio, por sua vez, tornam poss?vel a obten??o de novas formas de enovelamento. Entretanto, a complexidade e a grande dimens?o do espa?o de busca conformacional, mesmo para uma pequena mol?cula de prote?na, torna o problema da predi??o intrat?vel computacionalmente (Paradoxo de Levinthal). Apesar do relativo sucesso obtido por estes m?todos para prote?nas de pequeno tamanho, muitos esfor?os ainda s?o necess?rios para o desenvolvimento de estrat?gias para extra??o e manipula??o de dados experimentais, bem como o desenvolvimento de metodologias que fa?am utiliza??o destas informa??es com o prop?sito de predizer corretamente, a partir apenas da seq??ncia de amino?cidos de uma prote?na, a sua estrutura 3D. Nesta disserta??o ? apresentada uma nova proposta para a predi??o in s?lico da estrutura 3D aproximada de polipept?deos e prote?nas. Um novo algoritmo foi desenvolvido, baseando-se na an?lise de informa??es obtidas de moldes do PDB. T?cnicas de minera??o de dados, representa??o de intervalos e de manipula??o das informa??es estruturais s?o utilizadas neste algoritmo. Os intervalos de varia??o angular de cada res?duo de amino?cido da cadeia polipept?dica s?o reduzidos como o objetivo de encontrar um intervalo fechado que cont?m a conforma??o com a menor energia potencial. Seis estudos de caso demonstram a aplica??o do m?todo desenvolvido.
38

Houde, Jean-Christophe. "Reconfiguration stéréoscopique". Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5751.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours des dernières années, le cinéma tridimensionnel a connu un regain de popularité. La réalisation de plusieurs films d'animation 3D de qualité, de même que le succès fulgurant du film Avatar aura permis au grand public de constater la qualité de cette nouvelle génération de technologies 3D. Cependant, un problème fondamental ralentit toujours l'adoption à la maison de ce mode de divertissement. En effet, tout contenu visuel produit en se basant sur des techniques de stéréoscopie subira des distorsions visuelles lorsqu'observé dans des conditions différentes de celles considérées lors de la création du contenu. Autrement dit, un film 3D tourné pour un cinéma de grande dimension n'aura pas une richesse de profondeur aussi grande lorsqu'il sera visualisé sur un écran domestique. Ce mémoire présente un cadre de travail, un modèle mathématique et un ensemble de techniques permettant de"reconfigurer", en générant de nouvelles images, le contenu stéréoscopique original afin que l'effet de profondeur original soit préservé dans les nouvelles conditions de visualisation.
39

Conze, Pierre-Henri. "Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement". Phd thesis, INSA de Rennes, 2014. http://tel.archives-ouvertes.fr/tel-00992940.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.
40

Dufort, Jean-François. "Rendu interactif de détails de surface par textures 3D semi-transparentes". Thèse, 2005. http://hdl.handle.net/1866/16678.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
41

St-Amour, Jean-François. "Génération d'ombres floues provenant de sources de lumière surfaciques à l'aide de tampons d'ombre étendus". Thèse, 2004. http://hdl.handle.net/1866/14568.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Rozon, Frédérik. "Peinture de lumière incidente dans des scènes 3D". Thèse, 2009. http://hdl.handle.net/1866/3160.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Lighting design is usually a task that is done manually, where the artists must manipulate the parameters of several light sources to obtain the desired result. This task is difficult because it is not intuitive. Some systems already exist that enable a user to paint light directly on objects in a scene to position or alter light sources. Unfortunately, these systems have some limitations such that they only consider local lighting, or the camera must be fixed, etc. Either way, this limitates the accuracy or the versatility of these systems. Global illumination is important because it adds a lot of realism to a scene by capturing all the light interreflections on the surfaces. This means that light sources can influence surfaces even if they are not directly exposed. In this M. Sc. thesis, we study a subset of the lighting design problem: the selection and alteration of the intensity of light sources. We present two different systems to design lighting on objects in 3D scenes. The user paints light intentions directly on the objects to alter the surface illumination. From these paint strokes, the systems find the light sources and alter their intensity to obtain as much as possible what the user wants. The novelty of our technique is that global illumination, transparent surfaces and subsurface scattering are all considered, and also that the camera is free to take any position. We also present strategies for selecting and altering the light sources. The first system uses an environment map as an intermediate representation of the environment surrounding the objects. The second system saves all the information of the environment for each vertex of each object.
43

Parent-Lévesque, Jérôme. "Towards deep unsupervised inverse graphics". Thesis, 2020. http://hdl.handle.net/1866/25467.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un objectif de longue date dans le domaine de la vision par ordinateur est de déduire le contenu 3D d’une scène à partir d’une seule photo, une tâche connue sous le nom d’inverse graphics. L’apprentissage automatique a, dans les dernières années, permis à de nombreuses approches de faire de grands progrès vers la résolution de ce problème. Cependant, la plupart de ces approches requièrent des données de supervision 3D qui sont coûteuses et parfois impossible à obtenir, ce qui limite les capacités d’apprentissage de telles œuvres. Dans ce travail, nous explorons l’architecture des méthodes d’inverse graphics non-supervisées et proposons deux méthodes basées sur des représentations 3D et algorithmes de rendus différentiables distincts: les surfels ainsi qu’une nouvelle représentation basée sur Voronoï. Dans la première méthode basée sur les surfels, nous montrons que, bien qu’efficace pour maintenir la cohérence visuelle, la production de surfels à l’aide d’une carte de profondeur apprise entraîne des ambiguïtés car la relation entre la carte de profondeur et le rendu n’est pas bijective. Dans notre deuxième méthode, nous introduisons une nouvelle représentation 3D basée sur les diagrammes de Voronoï qui modélise des objets/scènes à la fois explicitement et implicitement, combinant ainsi les avantages des deux approches. Nous montrons comment cette représentation peut être utilisée à la fois dans un contexte supervisé et non-supervisé et discutons de ses avantages par rapport aux représentations 3D traditionnelles
A long standing goal of computer vision is to infer the underlying 3D content in a scene from a single photograph, a task known as inverse graphics. Machine learning has, in recent years, enabled many approaches to make great progress towards solving this problem. However, most approaches rely on 3D supervision data which is expensive and sometimes impossible to obtain and therefore limits the learning capabilities of such work. In this work, we explore the deep unsupervised inverse graphics training pipeline and propose two methods based on distinct 3D representations and associated differentiable rendering algorithms: namely surfels and a novel Voronoi-based representation. In the first method based on surfels, we show that, while effective at maintaining view-consistency, producing view-dependent surfels using a learned depth map results in ambiguities as the mapping between depth map and rendering is non-bijective. In our second method, we introduce a novel 3D representation based on Voronoi diagrams which models objects/scenes both explicitly and implicitly simultaneously, thereby combining the benefits of both. We show how this representation can be used in both a supervised and unsupervised context and discuss its advantages compared to traditional 3D representations.
44

Yuan, Lin Tzu, e 林子淵. "Presentation of the Classic Video Images by 3D Dot Matrix Holograms─ Rendy Lu Kissing His Finger and Raising It to the Sky as an Example". Thesis, 2012. http://ndltd.ncl.edu.tw/handle/37568003261894599561.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
碩士
國立臺灣師範大學
圖文傳播學系
100
To protect the copyright, the use of OVD (Optical variable device) can effectively prevent the original document from illegal copy. Hologram is a kind of the OVDs. It can be used not only for artistic creation but also for security purposes. With the rapid development of digital archives, it can bring the possibility of the value-added application for many old commodities. However, in the past, the research of holography technology has always been focused on discussing the function of anti-counterfeiting, and less efforts has been devoted to the conformity application between digital archives and the video-images. Therefore, this research will propose a method to combine dot-matrix holograms and classic video-images because dot-matrix holograms can profoundly enhance its value-added application. The main purpose of this paper is to transform the classic video-images from Rendy Lu, who won the ticket of quarter-final in Wimbledon Tennis Tournament in 2010, into a series of images. These images show that Rendy Lu kisses his fingers and raises his hand to the sky. Then, we take the 3D model of Rendy Lu as elements to design an optical variable effect by using dot-matrix hologram. In the end, we make this dot matrix hologram become a value-added product, and give it a story to promote the product in the market. The result shows that the dot matrix holograms which we design can directly display 3D video-images without using any electricity or power. Consequently, this dot-matrix hologram design which combines technology and digital archives will have many possibilities of value-added applications.
45

PETRINI, Maria Celeste. "IL MARKETING INTERNAZIONALE DI UN ACCESSORIO-MODA IN MATERIALE PLASTICO ECO-COMPATIBILE: ASPETTI ECONOMICI E PROFILI GIURIDICI. UN PROGETTO PER LUCIANI LAB". Doctoral thesis, 2018. http://hdl.handle.net/11393/251084.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Con l’espressione “marketing internazionale” ci si riferisce a quell’insieme di attività adottate dall’impresa al fine di sviluppare o perfezionare la propria presenza sul mercato estero. Oggetto della presente ricerca è l’analisi degli aspetti problematici che tali attività sollevano sul piano giuridico: attraverso un approccio basato sull’integrazione della cultura economica del marketing d’impresa con quella più propriamente giuridica, l’indagine mira ad individuare le fattispecie di marketing rilevanti sotto il profilo giuridico e giuspubblicistico, ad analizzarne i profili che risultano più critici per l’impresa e proporre soluzioni concrete. La ricerca è stata condotta in collaborazione all’azienda Gruppo Meccaniche Luciani, che oltre ad essere un affermato fornitore di stampi per calzature, progetta design innovativi attraverso una sua articolazione organizzativa creativa, denominata Luciani LAB. L’impresa investe molto nell’innovazione, ed in questo senso, particolarmente significativo è stato l’acquisto di una potente stampante 3D, tecnologicamente all’avanguardia, che ha consentito all’azienda di progettare diversi prodotti, tra cui una borsa, realizzarli in prototipazione rapida, e successivamente renderli oggetto di specifiche campagne promozionali, illustrate nel presente lavoro. Viene evidenziato come queste rispecchino la peculiarità dell’approccio al marketing da parte della piccola/media impresa, descritto dalla dottrina maggioritaria come intuitivo ed empirico, distante da quello teorico e strategico del marketing management. La collaborazione con l’impresa partner del progetto ha costituito il riferimento principale per l’elaborazione del metodo con cui condurre la ricerca: l’azienda ha promosso i propri prodotti mediante diverse strumenti di marketing, come inserti pubblicitari su riviste, campagne di e-mail marketing e fiere di settore. Queste attività si distinguono tra esse non solo rispetto alle funzioni, alle differenti modalità con cui vengono impiegate e al pubblico cui si rivolgono, ma anche e soprattutto rispetto alla disciplina giuridica di riferimento: ognuna di esse infatti è regolata da un determinato complesso di regole e solleva questioni che si inseriscono in una specifica cornice giuridica. Al fine di giungere ad una sistematica trattazione dei profili giuridici connessi, si è scelto di classificare le diverse azioni di marketing in tre gruppi: quelle riferite alla comunicazione, quelle inerenti l’aspetto del prodotto e quelle che si riferiscono al cliente Per ognuna di queste aree si individua una precisa questione critica per l’impresa, e se ne trattano i profili problematici dal punto di vista giuridico. In relazione al primo gruppo, ovvero la comunicazione pubblicitaria d’impresa, si evidenziano le criticità connesse alla possibilità di tutelare giuridicamente l’idea creativa alla base del messaggio pubblicitario: si mette in discussione l’efficacia degli strumenti giuridici invocabili a sua tutela, in particolare della disciplina del diritto d’autore, della concorrenza sleale e dell’autodisciplina. Si prende come riferimento principale il contesto italiano, considerando la pluralità degli interessi pubblici, collettivi ed individuali coinvolti. Il secondo profilo d’indagine riguarda la disciplina giuridica riconducibile all’e-mail marketing, uno degli strumenti più diffusi di comunicazione digitale. L’invasività di questo sistema nella sfera personale dei destinatari impone l’adozione di adeguati rimedi da parte delle imprese per evitare di incorrere nella violazione delle disposizioni a tutela della privacy. Si trattano le diverse implicazioni derivanti dall’uso di tale strumento, in particolare quelle riferite al trattamento dei dati personali alla luce della normativa vigente in Italia e nell’Unione Europea, e connesse alle modalità di raccolta degli indirizzi e-mail dei destinatari potenzialmente interessati. Infine, la costante partecipazione alle fiere di settore da parte dell’azienda dimostra quanto l’esteriorità del prodotto costituisca uno strumento di marketing decisivo per la competitività aziendale, dunque grande è l’interesse dell’impresa a che il suo aspetto esteriore venga protetto dall’imitazione dei concorrenti. Il tema giuridico più significativo che lega il processo di marketing al prodotto dell’azienda è proprio la protezione legale del suo aspetto, ovvero la tutela del diritto esclusivo di utilizzarlo, e vietarne l’uso a terzi. L’aspetto di un prodotto può essere oggetto di protezione sulla base di diverse discipline che concorrono tra loro, sia a livello nazionale che sovranazionale, dei disegni e modelli, del marchio di forma, del diritto d’autore e della concorrenza sleale. Si è scelto di concentrare il lavoro, in particolare, sulla prima: si ricostruisce il quadro normativo e l’assetto degli interessi implicati dalla fattispecie, per arrivare ad evidenziare le principali criticità nell’interpretazione delle norme, sia a livello nazionale, che nell’Unione Europea. Si approfondiscono gli orientamenti di dottrina e giurisprudenza di alcune disposizioni chiave per l’applicazione della disciplina, quali gli artt. 6 e 7 del Regolamento CE, n. 6/2002, concernenti rispettivamente il «carattere individuale» e la «divulgazione», i due requisiti fondamentali per ottenere la registrazione e conseguente protezione giuridica del disegno. Tali nozioni sono soggette ad interpretazioni parzialmente difformi da parte dei giudici dei diversi Stati membri, e ciò contribuisce a minare l’applicazione omogenea della disciplina in tutto il territorio UE. In questo senso, viene messo in evidenza il ruolo chiave dell’orientamento della Corte di Giustizia dell’Unione Europea nell’interpretazione di tali concetti, avente l’effetto di uniformare l’approccio degli Stati. La Direttiva 98/71/CE ha introdotto la possibilità di cumulare la protezione conferita all’aspetto del prodotto dalla disciplina dei disegni e modelli con quella riconosciuta dalle altre normative. Tale previsione solleva questioni di rilievo sistematico e concorrenziale: ci si interroga su quali problemi di tipo sistematico e di concorrenza vengano sollevati dal riconoscimento su uno stesso prodotto della protezione sia come disegno che come marchio di forma, e sia come disegno che come opera dell’ingegno. In particolare nell’ambito del diritto dei marchi d’impresa e del diritto d’autore, le tutele hanno durata potenzialmente perpetua, diversamente dalla registrazione come disegno o modello, che garantisce la titolarità del diritto di utilizzare il proprio disegno in via esclusiva per un periodo limitato di massimo 25 anni. Questa differenza temporale rende il cumulo problematico sia a livello di coordinamento, che di concorrenza, poiché incentiva il sorgere di “monopoli creativi” sulle forme del prodotto. Il presente lavoro ha come obiettivo l’ampliamento della conoscenza sul tema del marketing con particolare riferimento ai profili giuridici che si pongono, con riguardo alla promozione del prodotto nell’ambito dell’Unione Europea. Si ritiene che il valore aggiunto e l’aspetto più originale della ricerca consista nella sua forte aderenza alla realtà della piccola/media impresa: tramite l’integrazione della ricerca giuridica e dello studio dei fenomeni di marketing si delineano i problemi pratici che questa si trova a dover affrontare nell’implementazione delle attività quotidiane di marketing. Tale indagine vuole essere utile a tutte le piccole/medie imprese che si trovano impreparate nell’affrontare le sfide poste dal marketing e nel conoscere le implicazioni giuridiche che da questo derivano.

Vai alla bibliografia