Thèses sur le sujet « VIRTUAL REALITY 3D GRAPHIC INTERFACES »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 20 meilleures thèses pour votre recherche sur le sujet « VIRTUAL REALITY 3D GRAPHIC INTERFACES ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.
Chen, Yenan. « Advanced Multi-modal User Interfaces in 3D Computer Graphics and Virtual Reality ». Thesis, Linköpings universitet, Institutionen för teknik och naturvetenskap, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-75889.
Texte intégralMíchal, Vít. « 3D video browser ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2009. http://www.nusl.cz/ntk/nusl-235486.
Texte intégralFernández, Baena Adso. « Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters ». Doctoral thesis, Universitat Ramon Llull, 2015. http://hdl.handle.net/10803/311800.
Texte intégralAquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots.
Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
Terziman, Léo. « Contribution à l'Étude des Techniques d'Interaction 3D et des Retours Sensoriels pour Améliorer la Navigation et la Marche en Réalité Virtuelle ». Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00767488.
Texte intégralWang, Jia. « Isometric versus Elastic Surfboard Interfaces for 3D Travel in Virtual Reality ». Digital WPI, 2011. https://digitalcommons.wpi.edu/etd-theses/874.
Texte intégralSantos, Lages Wallace. « Walk-Centric User Interfaces for Mixed Reality ». Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/84460.
Texte intégralPh. D.
Silveira, Junior Wedson Gomes da. « Manipulação de objetos 3D em ambientes colaborativos com o uso do dispositivo Kinect ». Universidade Federal de Uberlândia, 2013. https://repositorio.ufu.br/handle/123456789/14523.
Texte intégralAs pesquisas na área de interação natural vêm crescendo significativamente, pois, com a disseminação de computadores pessoais, existe uma demanda crescente por interfaces que maximizem a produtividade. Dentre essas interfaces podemos destacar a Realidade Virtual e a Realidade Aumentada (KIRNER, TORI e SISCOUTO, 2006), de forma que os usuários possam realizar tarefas simples como: escolha de um objeto 3D, translação, rotação e mudança de escala neste objeto 3D. Essas tarefas normalmente são realizadas através de dispositivos como o teclado e o mouse, podendo, dessa maneira, acontecer uma perda de imersão por parte do usuário no ambiente virtual. Sendo assim, investigar metodologias para interação natural nesses ambientes, pode ajudar a aumentar a imersão do usuário, no ambiente virtual. Outra questão que vem sendo o foco de muitas pesquisas são os Ambientes Virtuais Colaborativos (KIRNER e TORI, 2004), que permitem aos usuários se comunicarem e compartilhar informações. Esses usuários podem estar próximos fisicamente ou não. O foco principal desse trabalho é justamente a comunicação entre usuários dispersos remotamente. Dessa maneira, pretende-se, com esse trabalho, propor um sistema que possibilite a manipulação objetos 3D através de gestos naturais e compartilhar dados com usuários dispersos remotamente.
Mestre em Ciências
Hachet, Martin. « Interfaces utilisateur 3D, des terminaux mobiles aux environnements virtuels immersifs ». Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00576663.
Texte intégralPouke, M. (Matti). « Augmented virtuality:transforming real human activity into virtual environments ». Doctoral thesis, Oulun yliopisto, 2015. http://urn.fi/urn:isbn:9789526208343.
Texte intégralTiivistelmä Tämän väitöskirjatyön aiheena on ihmistoiminnan muuntaminen todellisesta maailmasta virtuaalitodellisuuteen. Työssä käsitellään kuinka näkyvästä ihmistoiminnasta tunnistetaan sensoriverkkojen avulla erilaisia ominaisuuksia ja kuinka nämä ominaisuudet voidaan esittää eri tavoin virtuaaliympäristöissä. Ihmistoiminnan muuntaminen virtuaaliympäristöihin on kohtalaisen uusi tutkimusalue. Olemassa oleva tutkimus keskittyy yleensä kerrallaan vain tietyntyyppisen ihmistoiminnan, kuten perustoimintojen tai liikkumisen, tunnistamiseen ja visualisointiin. Erilaiset anturit ja muut datalähteet pystyvät kuitenkin tuottamaan hyvin erityyppistä dataa ja siten soveltuvat hyvin erilaisiin käyttötapauksiin. Tämä työ tutkii ensimmäisten joukossa ihmistoiminnan tunnistamista ja visualisointia virtuaaliympäristössä laajemmassa mittakaavassa ja useista teoreettisista näkökulmista tarkasteltuna. Työssä hyödynnetään konstrukteja jotka on kehitetty eri käyttötapauksia varten. Konstruktit ovat sekoitetun todellisuuden sovelluksia joissa hyödynnetään erityyppistä lähdedataa ja visualisoidaan ihmistoimintaa eri tavoin. Konstrukteja arvioidaan sekä niiden käytännön sovellusalueen, että erilaisten teoreettisten viitekehysten kannalta. Tulokset viittaavat siihen, että erilaisilla muunnoksilla on selkeästi erityyppiset ominaisuudet. Selkein teoreettinen löydös on, että mitä yksityiskohtaisemmasta toiminnasta on kyse, sitä vähemmän tunnistuksessa voidaan hyödyntää kontekstuaalista tietoa tai tavanomaisia datalähteitä. Tuloksissa tuodaan myös uusia näkökulmia ihmistoiminnan visualisoinnin hyödyntämisestä erilaisissa käytännön sovelluskohteissa. Sovelluskohteina toimivat ihmiskehon käyttäminen ohjauslaitteena sekä ihmistoiminnan visualisointi ja simulointi kotihoidon ja kaupunkisuunnittelun sovellusalueilla
Barnes, Evans Katie. « Beyond the Screen : Embedded Interfaces as Retail Wayfinding Tools ». Kent State University / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=kent1493251709396537.
Texte intégralKunert, André [Verfasser], Bernd [Akademischer Betreuer] Fröhlich, Bernd [Gutachter] Fröhlich et Frank [Gutachter] Steinicke. « 3D Interaction Techniques in Multi-User Virtual Reality : towards scalable templates and implementation patterns for cooperative interfaces / André Kunert ; Gutachter : Bernd Fröhlich, Frank Steinicke ; Betreuer : Bernd Fröhlich ». Weimar : Bauhaus-Universität Weimar, 2020. http://d-nb.info/1223373355/34.
Texte intégralHanotaux, Gabriel. « Techniques de contrôle du mouvement pour l'animation ». Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1993. http://tel.archives-ouvertes.fr/tel-00834691.
Texte intégralClergeaud, Damien. « Collaboration interactive 3D en réalité virtuelle pour supporter des scénarios aérospatiaux ». Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0708/document.
Texte intégralThe aerospace industry is no longer composed of local and individualbusinesses. Due to the complexity of the products (their size, the numberof components, the variety of systems, etc.), the design of an aircraft or alauncher involves a considerable number of engineers with various fields of expertise.Furthermore, aerospace companies often have industrial facilities allover the world. In such a complex setting, it is necessary to build virtual experimentsthat can be shared between different remote sites. Specific problemsthen arise, particularly in terms of the perception of other immersed users.We are working with Airbus Group in order to design efficient collaborativeinteraction methods. These collaborative sessions allow multiple sites to beconnected within the same virtual experiment and enable experts from differentfields to be immersed simultaneously. For instance, if a problem occurs duringthe final stages of a launcher assembly, it may be necessary to bring togetherexperts on different sites who were involved in previous steps ( initial design,manufacturing processes). In this thesis, we propose various interaction technique in order to ease thecollaboration at different moments of an industrial process. We contributedin the context of communication between immersed users, taking notes inthe virtual environment and sharing it outside virtual reality and asymmetriccollaboration between a physical meeting room and a virtual environment
Mrkvička, Tomáš. « Zobrazování komplexních 3D scén ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2008. http://www.nusl.cz/ntk/nusl-235446.
Texte intégralCasarin, Julien. « Proposition d'un protocole web pour la collaboration multi-support en environnement 3D : UMI3D ». Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD031.
Texte intégralRecent technological advances in the fields of Virtual Reality (VR) and Augmented Reality (RA) provide a new infrastructure for the visualization of 3D media, and to interact with them. This diversity of tools, allowing to manipulate 3D content, brings new perspectives for the support of cooperative work by AR and VR. Indeed, collaborative work involves actors with different roles and trades. Their needs in terms of visualization, and especially of interaction with 3D content are therefore different. If there are nowadays tools allowing the design of collaborative experiences for multiple devices, these tools require designers to have significant expertise in developing AR/VR applications. First, they must be aware of the design best-practices for each device. Second, the designers must have some experience in developing plastic interfaces. If it is not the case, designing a different application is needed for each device. The point of view we defend in this thesis is that a new architecture is needed for collaborative AR/VR applications to allow their conception without to enquire the developers to have a knowledge of each device specificities. After presenting the existing tools for creating AR/VR applications for multiple devices, we propose a new architecture for 3D applications. This architecture separates the 3D media from the user device. To allow communication between the media and the different devices, we introduce the UMI3D web protocol which allows the device to connect to any 3D media using a UMI3D browser. The browser allows the loading of 3D content from the media, and dynamically generates an adapted user interface for a given device. This user interface allows the user to draw up interaction contracts established by the media using the protocol. The main contribution of the proposed 3D media architecture is to avoid asking the media designer for technical skills about specific AR/VR devices. Furthermore, in the case where UMI3D browsers are existing for the devices used, the design of a cross-devices 3D media requires the same development effort as the design of a single-device 3D application
LEONE, GIUSEPPE RICCARDO. « Comunicazione bimodale nel web per mezzo di facce parlanti 3D ». Doctoral thesis, 2014. http://hdl.handle.net/2158/874631.
Texte intégralOrtega, González Erik Vladimir. « Étude de son 3D pour une interaction audio-visuelle en environnement virtuel enrichi ». Phd thesis, 2011. http://pastel.archives-ouvertes.fr/pastel-00602192.
Texte intégralTeather, Robert J. « Comparing 2D and 3D direct manipulation interfaces / ». 2008. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:mr38834.
Texte intégralTypescript. Includes bibliographical references (leaves 95-101). Also available on the Internet. MODE OF ACCESS via web browser by entering the following URL: http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:MR38834
Huang, Chiung-Yi, et 黃瓊誼. « The effects of “3D Graphic-based Virtual Reality” on the improvement of walking skills to school for elementary school students with moderate and severe mental retardation ». Thesis, 2006. http://ndltd.ncl.edu.tw/handle/94511132897312335970.
Texte intégral國立臺北教育大學
特殊教育學系碩士班
94
The purpose of this study was to investigate the effectiveness of the “3D Graphic-based Virtual Reality” on the improvement of walking skill to school for elementary school students with moderate and severe mental retardation. Single-subject experimental design with changing criterion design was used to evaluate the effectiveness.”3D Graphic-based Virtual Reality” is an independent variable and the “walking skills to school” are dependent variables. Two students with moderate and severe mental retardation were monitored, which their grade were ranged from four to six. During this experiment, each student received individual teaching. Every teaching class consisted of an indoor desktop learning and an outdoor practice at their commute routes. The teaching continued until students became skilled, which took about four to five weeks. The students received additional three other learning reservation tests after the experiment. These were to assure their learning reservation outcome. All data were videotaped, and were analyzed by using visual inspection techniques. The effects of other observation data as well as the social validity of the interview data were also analyzed. The results of this study included: 1. After teaching, two students did improve their walking skills to school. This implied that virtual experience could be successfully transferred, and applied to real environment, and the effectiveness of “3D Graphic-based Virtual Reality〞learning was positve. 2. The commute time to school of monitored students was gradually reduced even after this experiment. This confirms the walking skill has been improved. 3. The feedback from teachers and parents of monitored students on the “3D Graphic-based Virtual Reality〞learning were positive. Instead of outdoor learning, “3D Graphic-based Virtual Reality〞learning brought students more safety, and indoor learning made them more focused. As a result, monitored students improved their walking skills. In addition to the discussions of above-mentioned results, suggestions on the teaching contents and directions of future studies of students with mental retardation were proposed in this study.
Hung, Yu Ting, et 洪郁婷. « The Effect of 3D Virtual Reality Instruction on the Learning Attitude of Mathematics in Elementary School Students withDifferent Gender and Learning Style--- the case of 「graphic and geometry units」of Six Grade -- ». Thesis, 2004. http://ndltd.ncl.edu.tw/handle/66844952872382045378.
Texte intégral國立屏東師範學院
教育科技研究所
93
This research was to look into that if teachers utilize different teaching methods on students could lead to different learning attitudes and effects. Besides, based on different gender and learning type, with different teaching methods, students would show variation on their leaning attitudes and mathematics performances. The samples of this study were fifty-nine sixth-grade students from two classes at one school, Kaohsiung. Each group will go through and seven hours, total two weeks experimental course. Before the course, both the 3D Virtual Reality Instruction and Traditional Instruction groups took a pre-test, called mathematics attitude scale. In one week after the course finished, the two groups will took a attitude post-test and mathematics achievement test, and the experimental group filled in a 3D Virtual Reality Learning Questionnaire. According to the analysis from the experiment , the study reached the following conclusions: 1.There was no significant interaction on students’ learning attitudes between the gender and teaching methods. 2.There was a significant interaction on students’ mathematics performance betw- een the gender and teaching methods. For the girls ,with “3D Virtual Reality Instruction”, students improves a lot compared to the Traditional Learning. For the boys, however, the difference was insignificant. 3.There was no significant interaction on students’ mathematics learning attitudes between the learning type and teaching methods. 4.There was no significant interaction on students’ mathematics performance between the learning type and teaching methods. 5.Most students in the experimental group are in favor of 3D Virtual Reality Instruction. This method can help them easily catch on mathematics courses and express their view of points. Moreover, it improves concentration . In the end, according to the develop CAI and research process and results, the study provided suggestions for 3D Virtual Reality Instruction develop and further researches.