Littérature scientifique sur le sujet « VIRTUAL REALITY 3D GRAPHIC INTERFACES »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « VIRTUAL REALITY 3D GRAPHIC INTERFACES ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
KIM, HADONG, et MALREY LEE. « AN OPEN MODULE DEVELOPMENT ENVIRONMENT (OMDE) FOR INTERACTIVE VIRTUAL REALITY SYSTEMS ». International Journal of Pattern Recognition and Artificial Intelligence 24, no 06 (septembre 2010) : 947–60. http://dx.doi.org/10.1142/s0218001410008251.
Texte intégralYilmaz, Bulent, et Muge Goken. « Virtual reality (VR) technologies in education of industrial design ». New Trends and Issues Proceedings on Humanities and Social Sciences 2, no 1 (19 février 2016) : 498–503. http://dx.doi.org/10.18844/prosoc.v2i1.336.
Texte intégralMironenko, Maxim, Viktor Chertopolokhov et Margarita Belousova. « Virtual Reality Technologies and Universal 3D Reconstruction Interface Development ». Историческая информатика, no 4 (avril 2020) : 192–205. http://dx.doi.org/10.7256/2585-7797.2020.4.34671.
Texte intégralSung, Jung-Hwan, Dae-Young Lee et Hyung-Koo Kim. « Difference of GUI Efficiency based on 3D and 2D Graphic -Imaginary 3D IPTV Interface Development Using Virtual Reality Theory- ». Journal of the Korea Contents Association 7, no 7 (28 juillet 2007) : 87–95. http://dx.doi.org/10.5392/jkca.2007.7.7.087.
Texte intégralLim, Enmi, Kiyoshi Umeki et Tsuyoshi Honjo. « Application of Virtual Reality and Plant Modeling for Participation in Urban Planning and Design ». International Journal of Virtual Reality 8, no 2 (1 janvier 2009) : 91–99. http://dx.doi.org/10.20870/ijvr.2009.8.2.2730.
Texte intégral구상권 et 민수홍. « Considerations on Rationalization of 3D Computer Graphic Rendering Technology and Appropriation of the Role of Fake Interface on Virtual Reality ». Journal of Digital Design 7, no 2 (avril 2007) : 121–32. http://dx.doi.org/10.17280/jdd.2007.7.2.012.
Texte intégralVörös, Viktor, Ruixuan Li, Ayoob Davoodi, Gauthier Wybaillie, Emmanuel Vander Poorten et Kenan Niu. « An Augmented Reality-Based Interaction Scheme for Robotic Pedicle Screw Placement ». Journal of Imaging 8, no 10 (6 octobre 2022) : 273. http://dx.doi.org/10.3390/jimaging8100273.
Texte intégralYue, Xue Jun, Tian Sheng Hong, Xing Xu et Wei Bin Wu. « Study on 3D Virtual Reality Modeling ». Advanced Materials Research 129-131 (août 2010) : 1296–300. http://dx.doi.org/10.4028/www.scientific.net/amr.129-131.1296.
Texte intégralHwang, Jane, Jaehoon Jung, Sunghoon Yim, Jaeyoung Cheon, Sungkil Lee, Seungmoon Choi et Gerard J. Kim. « Requirements, Implementation and Applications of Hand-held Virtual Reality ». International Journal of Virtual Reality 5, no 2 (1 janvier 2006) : 59–66. http://dx.doi.org/10.20870/ijvr.2006.5.2.2689.
Texte intégralNovak-Marcincin, Jozef. « Virtual Reality Modeling Language as Tool for Automated Workplaces Simulation ». Applied Mechanics and Materials 309 (février 2013) : 372–79. http://dx.doi.org/10.4028/www.scientific.net/amm.309.372.
Texte intégralThèses sur le sujet "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Chen, Yenan. « Advanced Multi-modal User Interfaces in 3D Computer Graphics and Virtual Reality ». Thesis, Linköpings universitet, Institutionen för teknik och naturvetenskap, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-75889.
Texte intégralMíchal, Vít. « 3D video browser ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2009. http://www.nusl.cz/ntk/nusl-235486.
Texte intégralFernández, Baena Adso. « Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters ». Doctoral thesis, Universitat Ramon Llull, 2015. http://hdl.handle.net/10803/311800.
Texte intégralAquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots.
Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
Terziman, Léo. « Contribution à l'Étude des Techniques d'Interaction 3D et des Retours Sensoriels pour Améliorer la Navigation et la Marche en Réalité Virtuelle ». Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00767488.
Texte intégralWang, Jia. « Isometric versus Elastic Surfboard Interfaces for 3D Travel in Virtual Reality ». Digital WPI, 2011. https://digitalcommons.wpi.edu/etd-theses/874.
Texte intégralSantos, Lages Wallace. « Walk-Centric User Interfaces for Mixed Reality ». Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/84460.
Texte intégralPh. D.
Silveira, Junior Wedson Gomes da. « Manipulação de objetos 3D em ambientes colaborativos com o uso do dispositivo Kinect ». Universidade Federal de Uberlândia, 2013. https://repositorio.ufu.br/handle/123456789/14523.
Texte intégralAs pesquisas na área de interação natural vêm crescendo significativamente, pois, com a disseminação de computadores pessoais, existe uma demanda crescente por interfaces que maximizem a produtividade. Dentre essas interfaces podemos destacar a Realidade Virtual e a Realidade Aumentada (KIRNER, TORI e SISCOUTO, 2006), de forma que os usuários possam realizar tarefas simples como: escolha de um objeto 3D, translação, rotação e mudança de escala neste objeto 3D. Essas tarefas normalmente são realizadas através de dispositivos como o teclado e o mouse, podendo, dessa maneira, acontecer uma perda de imersão por parte do usuário no ambiente virtual. Sendo assim, investigar metodologias para interação natural nesses ambientes, pode ajudar a aumentar a imersão do usuário, no ambiente virtual. Outra questão que vem sendo o foco de muitas pesquisas são os Ambientes Virtuais Colaborativos (KIRNER e TORI, 2004), que permitem aos usuários se comunicarem e compartilhar informações. Esses usuários podem estar próximos fisicamente ou não. O foco principal desse trabalho é justamente a comunicação entre usuários dispersos remotamente. Dessa maneira, pretende-se, com esse trabalho, propor um sistema que possibilite a manipulação objetos 3D através de gestos naturais e compartilhar dados com usuários dispersos remotamente.
Mestre em Ciências
Hachet, Martin. « Interfaces utilisateur 3D, des terminaux mobiles aux environnements virtuels immersifs ». Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00576663.
Texte intégralPouke, M. (Matti). « Augmented virtuality:transforming real human activity into virtual environments ». Doctoral thesis, Oulun yliopisto, 2015. http://urn.fi/urn:isbn:9789526208343.
Texte intégralTiivistelmä Tämän väitöskirjatyön aiheena on ihmistoiminnan muuntaminen todellisesta maailmasta virtuaalitodellisuuteen. Työssä käsitellään kuinka näkyvästä ihmistoiminnasta tunnistetaan sensoriverkkojen avulla erilaisia ominaisuuksia ja kuinka nämä ominaisuudet voidaan esittää eri tavoin virtuaaliympäristöissä. Ihmistoiminnan muuntaminen virtuaaliympäristöihin on kohtalaisen uusi tutkimusalue. Olemassa oleva tutkimus keskittyy yleensä kerrallaan vain tietyntyyppisen ihmistoiminnan, kuten perustoimintojen tai liikkumisen, tunnistamiseen ja visualisointiin. Erilaiset anturit ja muut datalähteet pystyvät kuitenkin tuottamaan hyvin erityyppistä dataa ja siten soveltuvat hyvin erilaisiin käyttötapauksiin. Tämä työ tutkii ensimmäisten joukossa ihmistoiminnan tunnistamista ja visualisointia virtuaaliympäristössä laajemmassa mittakaavassa ja useista teoreettisista näkökulmista tarkasteltuna. Työssä hyödynnetään konstrukteja jotka on kehitetty eri käyttötapauksia varten. Konstruktit ovat sekoitetun todellisuuden sovelluksia joissa hyödynnetään erityyppistä lähdedataa ja visualisoidaan ihmistoimintaa eri tavoin. Konstrukteja arvioidaan sekä niiden käytännön sovellusalueen, että erilaisten teoreettisten viitekehysten kannalta. Tulokset viittaavat siihen, että erilaisilla muunnoksilla on selkeästi erityyppiset ominaisuudet. Selkein teoreettinen löydös on, että mitä yksityiskohtaisemmasta toiminnasta on kyse, sitä vähemmän tunnistuksessa voidaan hyödyntää kontekstuaalista tietoa tai tavanomaisia datalähteitä. Tuloksissa tuodaan myös uusia näkökulmia ihmistoiminnan visualisoinnin hyödyntämisestä erilaisissa käytännön sovelluskohteissa. Sovelluskohteina toimivat ihmiskehon käyttäminen ohjauslaitteena sekä ihmistoiminnan visualisointi ja simulointi kotihoidon ja kaupunkisuunnittelun sovellusalueilla
Barnes, Evans Katie. « Beyond the Screen : Embedded Interfaces as Retail Wayfinding Tools ». Kent State University / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=kent1493251709396537.
Texte intégralLivres sur le sujet "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Xuelei, Qian, et ebrary Inc, dir. OpenSceneGraph 3.0 : Beginner's guide : create high-performance virtual reality applications with OpenSceneGraph, one of the best 3D graphics engines. Birmingham, U.K : Packt Open Source, 2010.
Trouver le texte intégralCai, Yiyu. 3D Immersive and Interactive Learning. Singapore : Springer Singapore, 2013.
Trouver le texte intégralIEEE Symposium on 3D User Interfaces (2008 Reno, Nev.). 3DUI : IEEE Symposium on 3D User Interfaces 2008 : Reno, Nevada, USA, March 8-9, 2008 : proceedings. Piscataway, NJ : Institute of Electrical and Electronics Engineers, 2008.
Trouver le texte intégralMinn.) IEEE Symposium on 3D User Interfaces (9th 2014 Minneapolis. 2014 IEEE Symposium on 3D User Interfaces (3DUI 2014) : Minneapolis, Minnesota, USA, 29-30 March 2014. Piscataway, NJ : IEEE, 2014.
Trouver le texte intégralIEEE Symposium on 3D User Interfaces (2nd 2007 Charlotte, N.C.). 3DUI : IEEE Symposium on 3D User Interfaces 2007 : proceedings, Charlotte, North Carolina, USA, March 10-11, 2007. Piscataway, NJ : Institute of Electrical and Electronics Engineers, 2007.
Trouver le texte intégralOrlando, Fla ). IEEE Symposium on 3D User Interfaces (8th 2013. 2013 IEEE Symposium on 3D User Interface (3DUI 2013) : Orlando, Florida, USA, 16-17 March 2013. Piscataway, NJ : IEEE, 2013.
Trouver le texte intégralCai, Yiyu. 3D Immersive and Interactive Learning. Springer, 2015.
Trouver le texte intégralCai, Yiyu. 3D Immersive and Interactive Learning. Springer, 2013.
Trouver le texte intégralStaff, IEEE. 2022 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2022.
Trouver le texte intégralStaff, IEEE. 2022 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW). IEEE, 2022.
Trouver le texte intégralChapitres de livres sur le sujet "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
Lacoche, Jérémy, Thierry Duval, Bruno Arnaldi, Eric Maisel et Jérôme Royan. « 3DPlasticToolkit : Plasticity for 3D User Interfaces ». Dans Virtual Reality and Augmented Reality, 62–83. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31908-3_5.
Texte intégralLacoche, Jérémy, Thierry Duval, Bruno Arnaldi, Eric Maisel et Jérôme Royan. « Machine Learning Based Interaction Technique Selection for 3D User Interfaces ». Dans Virtual Reality and Augmented Reality, 33–51. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31908-3_3.
Texte intégralCannavò, Alberto, Davide Calandra, Aidan Kehoe et Fabrizio Lamberti. « Evaluating Consumer Interaction Interfaces for 3D Sketching in Virtual Reality ». Dans Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 291–306. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-73426-8_17.
Texte intégralRiddershom Bargum, Anders, Oddur Ingi Kristjánsson, Péter Babó, Rasmus Eske Waage Nielsen, Simon Rostami Mosen et Stefania Serafin. « Spatial Audio Mixing in Virtual Reality ». Dans Sonic Interactions in Virtual Environments, 269–302. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04021-4_9.
Texte intégralAndujar, Carlos, et Pere Brunet. « A Critical Analysis of Human-Subject Experiments in Virtual Reality and 3D User Interfaces ». Dans Lecture Notes in Computer Science, 79–90. Cham : Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-17043-5_5.
Texte intégralZappi, Victor, Dario Mazzanti et Florent Berthaut. « From the Lab to the Stage : Practical Considerations on Designing Performances with Immersive Virtual Musical Instruments ». Dans Sonic Interactions in Virtual Environments, 383–424. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04021-4_13.
Texte intégralJasmine, S. Graceline, L. Jani Anbarasi, Modigari Narendra et Benson Edwin Raj. « Augmented and Virtual Reality and Its Applications ». Dans Multimedia and Sensory Input for Augmented, Mixed, and Virtual Reality, 68–85. IGI Global, 2021. http://dx.doi.org/10.4018/978-1-7998-4703-8.ch003.
Texte intégralSantoianni, Flavia, et Alessandro Ciasullo. « Digital and Spatial Education Intertwining in the Evolution of Technology Resources for Educational Curriculum Reshaping and Skills Enhancement ». Dans Virtual Reality in Education, 330–47. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-8179-6.ch016.
Texte intégralArmiano, Ioana. « Creative Interfaces ». Dans Innovative Design and Creation of Visual Interfaces, 192–219. IGI Global, 2012. http://dx.doi.org/10.4018/978-1-4666-0285-4.ch014.
Texte intégralGaspar, Filipe, Rafael Bastos et Miguel Sales. « Accurate Infrared Tracking System for Immersive Virtual Environments ». Dans Innovative Design and Creation of Visual Interfaces, 318–43. IGI Global, 2012. http://dx.doi.org/10.4018/978-1-4666-0285-4.ch020.
Texte intégralActes de conférences sur le sujet "VIRTUAL REALITY 3D GRAPHIC INTERFACES"
« IEEE Visualization and Graphics Technical Committee (VGTC) ». Dans 2021 IEEE Virtual Reality and 3D User Interfaces (VR). IEEE, 2021. http://dx.doi.org/10.1109/vr50410.2021.00008.
Texte intégralRiecke, Bernhard E., Joseph J. LaViola et Ernst Kruijff. « 3D user interfaces for virtual reality and games ». Dans SIGGRAPH '18 : Special Interest Group on Computer Graphics and Interactive Techniques Conference. New York, NY, USA : ACM, 2018. http://dx.doi.org/10.1145/3214834.3214869.
Texte intégralMuller, Christoph, Matthias Braun et Thomas Ertl. « Optimised Molecular Graphics on the HoloLens ». Dans 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2019. http://dx.doi.org/10.1109/vr.2019.8798111.
Texte intégral« IEEE Visualization and Graphics Technical Committee (VGTC) ». Dans 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2018. http://dx.doi.org/10.1109/vr.2018.8446353.
Texte intégral« IEEE Visualization and Graphics Technical Committee (VGTC) ». Dans 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2019. http://dx.doi.org/10.1109/vr.2019.8798109.
Texte intégralHobson, Tanner, Jeremiah Duncan, Mohammad Raji, Aidong Lu et Jian Huang. « Alpaca : AR Graphics Extensions for Web Applications ». Dans 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.00036.
Texte intégralHobson, Tanner, Jeremiah Duncan, Mohammad Raji, Aidong Lu et Jian Huang. « Alpaca : AR Graphics Extensions for Web Applications ». Dans 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.1581207820146.
Texte intégralKaur, Akriti, et Pradeep G. Yammiyavar. « A comparative study of 2D and 3D mobile keypad user interaction preferences in virtual reality graphic user interfaces ». Dans VRST '17 : 23rd ACM Symposium on Virtual Reality Software and Technology. New York, NY, USA : ACM, 2017. http://dx.doi.org/10.1145/3139131.3141221.
Texte intégralWhitlock, Matt, Stephen Smart et Danielle Albers Szafir. « Graphical Perception for Immersive Analytics ». Dans 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.00084.
Texte intégralWhitlock, Matt, Stephen Smart et Danielle Albers Szafir. « Graphical Perception for Immersive Analytics ». Dans 2020 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). IEEE, 2020. http://dx.doi.org/10.1109/vr46266.2020.1582298687237.
Texte intégral