Tesis sobre el tema "3D computer animation"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte los 50 mejores tesis para su investigación sobre el tema "3D computer animation".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.
Ottosson, Joakim y Stefan Eriksson. "3D Animation Karlshamns AB". Thesis, Blekinge Tekniska Högskola, Sektionen för teknokultur, humaniora och samhällsbyggnad, 2005. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-1524.
Texto completoIndustriell animation som visar en komplicerad process på ett enkelt och pedagogiskt sätt.
Detta är en reflektionsdel till en digital medieproduktion.
Crow, Trent Fielding. "Stylized Hatching for 3D Animation". BYU ScholarsArchive, 2007. https://scholarsarchive.byu.edu/etd/1046.
Texto completoKarlsson, Tobias. "Kroppsspråk i 3d-animation : Lögner hos 3d-karaktärer". Thesis, Högskolan i Skövde, Institutionen för kommunikation och information, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-5022.
Texto completoHarvey, Louise y n/a. "The Best of Both Worlds: The Application of Traditional Animation Principles in 3D Animation Software". Griffith University. Griffith Film School, 2007. http://www4.gu.edu.au:8080/adt-root/public/adt-QGU20070810.105026.
Texto completoHarvey, Louise. "The Best of Both Worlds: The Application of Traditional Animation Principles in 3D Animation Software". Thesis, Griffith University, 2007. http://hdl.handle.net/10072/365586.
Texto completoThesis (Professional Doctorate)
Doctor of Visual Arts (DVA)
Griffith Film School
Full Text
Han, Ching-Pei B. "3D alchemy : a guide to 3D realistic computer graphics /". Online version of thesis, 1993. http://hdl.handle.net/1850/11747.
Texto completoGhys, Charlotte. "Analyse, Reconstruction 3D, & Animation du Visage". Phd thesis, Ecole des Ponts ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00555140.
Texto completoMarcusson, Oscar. "Algoritmiska Animationer : En studie av automatisering av animation". Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-16560.
Texto completoRivera, Fiona MacDonald. "An improved computational model for effective 3D animation". Thesis, Queen Mary, University of London, 2017. http://qmro.qmul.ac.uk/xmlui/handle/123456789/25937.
Texto completoFonseca, Jose Antonio dos Santos. "Character body expression in 3D computer animation : a new posing approach". Thesis, Bournemouth University, 2015. http://eprints.bournemouth.ac.uk/24898/.
Texto completoCarter, Chris P. "Animated Mise-en-scene and aesthetic harmony: An expansion of the traditional principles of animation to 3D computer animation". Thesis, Queensland University of Technology, 2016. https://eprints.qut.edu.au/93800/1/Christopher_Carter_Thesis.pdf.
Texto completoAlbright, Laura Beth. "2D spatial design principles applied to 3D animation a proposed toolset for filmmakers /". Columbus, Ohio : Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view?acc%5Fnum=osu1230703092.
Texto completoMiller, Louis James. "Combining Media Processes for Ideation in 3D Character Design for Computer Animation". The Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=osu1243947806.
Texto completoErdogdu, Aysu. "Morphable 3d Facial Animation Based On Thin Plate Splines". Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/12611910/index.pdf.
Texto completos actual 3D scan data with the same facial expressions taken from the dataset.
Bazard, Audrey-Anne. "Madame Sylvia and the bird : a step into 3D animation". Virtual Press, 2006. http://liblink.bsu.edu/uhtbin/catkey/1337188.
Texto completoDepartment of Telecommunications
Neumann, Thomas y Markus Wacker. "Wie der Computer virtuelle Muskeln formt". Hochschule für Technik und Wirtschaft Dresden, 2014. http://nbn-resolving.de/urn:nbn:de:bsz:520-qucosa-144193.
Texto completoConventi, Maurizio. "Physically-based animation of 3D Biped characters with genetic algorithms". Thesis, Linköping University, Department of Electrical Engineering, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-8513.
Texto completoSynthesizing the realistic motion of a humanoid is a very sophisticated task, studied in different research areas. This work addresses the problem to synthetize realistic animations of 3D biped characters in a simulated environment, using genetic algorithms. Characters are represented as a structure of rigid bodies linked each other by 1DOF joints. Such joints are controlled by sinusoidal functions whose parameters are calculated by the genetic algorithm. Results, obtained by testing and comparing several different genetic operators, are presented. The system we have created allows the non-skilled user, to automatically create animations by setting only few key-poses of the characters.
Williams, Jared Van. "Rocky: virtual sculpting as the basis for computer generated character development". Thesis, University of Iowa, 2012. https://ir.uiowa.edu/etd/3011.
Texto completoKrawczyk, Piotr. "Futurist sculpting: modeling movement in 3D". Texas A&M University, 2006. http://hdl.handle.net/1969.1/5014.
Texto completoAlbright, Laura Beth. "2D Spatial Design Principles Applied to 3D Animation: A Proposed Toolset for Filmmakers". The Ohio State University, 2008. http://rave.ohiolink.edu/etdc/view?acc_num=osu1230703092.
Texto completoAli, Ahmad y Svensson Marcus. "Animation through Body Language : A study using the fictional character Mokhtar". Thesis, Uppsala universitet, Institutionen för speldesign, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-297660.
Texto completoHan, Lei. "Pixel Noir: a style for cinematic computer-generated lighting". Texas A&M University, 2004. http://hdl.handle.net/1969.1/3048.
Texto completoElliott, Jason Lynn. "AquaMOOSE 3D a constructionist approach to math learning movitved by artistic expression /". Available online, Georgia Institute of Technology, 2005, 2005. http://etd.gatech.edu/theses/available/etd-08232005-133845/.
Texto completoElizabeth Mynatt, Committee Member ; Janet Kolodner, Committee Member ; Amy Bruckman, Committee Chair ; Michael Eisenberg, Committee Member ; Mark Guzdial, Committee Member. Vita. Includes bibliographical references.
Junede, Fredrik y Samuel Asp. "Real-time 3D cloud animations using DCGAN". Thesis, Blekinge Tekniska Högskola, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-19567.
Texto completoBakgrund. Tidigare studier inom videogeneration med generativa motverkande nätverk har visat begränsningar kring den upplevda naturligheten av de genererade bilderna. En tidigare föreslagen metod för rendering och simulering av moln fungerar som grund för denna uppsats. Syfte. Denna uppsats siktar på att föreslå en ny maskinlärningsbaserad metod till kontexten att generera 3D-molnanimationer inom datorgrafik. Syftet bryts ner i flera mål, av vilka de primära är som följande. Användandet av en maskinlärningsmodell inkluderar förbehandlingen av molnbilder till molnkartor, träningen av modellen samt genereringen av 2D-molnanimationer via modellen. 3D-molnanimationer uppnås genom att implementera modellen i ett förexisterande ramverk för realtidsbaserat molnrendering. Prestandan av implementationen mäts och evalueras. Slutligen distribueras ett frågeformulär vars resultat analyseras för att evaluera effektiviteten av den föreslagna metoden. Metod. Bildkvaliten av de genererade bilderna jämförs, med hjälp av en metod för bildkvalitetsevaluering, med datamängden som användes vid träningen. Prestandan mäts och jämförs mellan den gamla Voronoi-brusbaserade metoden och den föreslagna maskinlärningsbaserade metoden. Slutligen kommer ett frågeformulär skickas ut och därefter bli statistiskt analyserat för att evaluera den upplevda naturligheten mellan den gamla metoden och den föreslagna metoden. Resultat. Den föreslagna metoden har en renderingstid nästan dubbelt så hög som den gamla metoden när de kör i realtid. Dock visar resultatet från frågeformuläret att animationen i den föreslagna metoden uppnår en högre nivå av upplevd naturlighet. Slutsatser. Den föreslagna metoden genererar mer naturliga animationer än den gamla metoden till en höjning i tidskomplexitet
Wang, Youyou DeSouza Guilherme. "A compact representation for 3D animation using octrees and affine transformation". Diss., Columbia, Mo. : University of Missouri--Columbia, 2009. http://hdl.handle.net/10355/6645.
Texto completoHjelm, John. "Facial Rigging and Animation in 3D : From a videogame perspective". Thesis, Högskolan på Gotland, Institutionen för speldesign, teknik och lärande, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:hgo:diva-679.
Texto completoBarreby, Martin. "When is it Necessary to Use Muscle Systems to Enhance 3D Animation?" Thesis, University of Gävle, Ämnesavdelningen för datavetenskap, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:hig:diva-4643.
Texto completo
To build muscles to enhance the animation of a 3D character takes more time and effort than the standard character rig. In some cases, the muscles will not be noticeable and therefore are unnecessary. This research tried to find the moments when the muscles did or did not make a difference. The new Maya Muscle System is also explored and the procedure to create muscles for a standard rig is explained. The test that was performed showed that the muscles are more noticeable in all cases.
Monjaux, Perrine. "Modélisation et animation interactive de visages virtuels de dessins animés". Phd thesis, Université René Descartes - Paris V, 2007. http://tel.archives-ouvertes.fr/tel-00274869.
Texto completoLes défis à relever par l'industrie du dessin animé 2D se posent donc en termes de :
1. Réutilisation des contenus selon le paradigme d'accès «Create once, render many»,
2. Facilité d'échange et de transmission des contenus ce qui nécessite de disposer d'un unique format de représentation,
3. Production efficace et économique des contenus requérant alors une animation automatisée par ordinateur.
Dans ce contexte compétitif, cette thèse, réalisée dans le cadre du projet industriel TOON financé par la société Quadraxis (www.quadraxis.com) et supporté par l'Agence Nationale de Valorisation de la Recherche (ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D de visages pour les dessins animés 2D. Vecteurs de la parole et des expressions, les visages nécessitent en effet une attention particulière quant à leur modélisation et animation conforme aux souhaits des créateurs de dessins animés.
Un état de l'art des méthodes, outils et systèmes contribuant à la création de modèles 3D faciaux et à leur animation est présenté et discuté au regard des contraintes spécifiques qui régissent les règles de création des dessins animés 2D et la chaîne de fabrication traditionnelle.
Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur :
l'élaboration d'une méthode de conception de visages virtuels 3D à partir d'une part d'un modèle 3D de type seamless, adapté aux exigences d'animation sans rupture, et d'autre part d'un ensemble de dessins 2D représentant les caractéristiques faciales,
la mise au point d'une procédure de création de poses clés, mettant en œuvre plusieurs méthodes de déformation non-rigide,
la conception d'un module d'animation 3D compatible avec le standard MPEG-4/AFX.
Les développements réalisés, intégrés dans un premier prototype de la plate-forme FaceTOON, montrent un gain en temps de 20% sur l'ensemble de la chaîne de production tout en assurant une complète interopérabilité des applications via le standard MPEG-4.
Boukhayma, Adnane. "Animation de capture de mouvement de surface". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM080/document.
Texto completoAs a new alternative to standard motion capture, 4D surface capture is motivated by the increasing demand from media production for highly realistic 3D content.Such data provides real full shape, appearance and kinematic information of the dynamic object of interest. We address in this work some of the tasks related to the acquisition and the exploitation of 4D data, as obtained through multi-view videos, with an emphasis on corpus of moving subjects. Some of these problems have already received a great deal of interest from the graphics and vision communities, but a number of challenges remain open in this respect. We address namely example based animation synthesis, appearance modelling and semantic motion transfer.We first propose a method to generate animations using video-based mesh sequences of elementary movements of a shape. New motions that satisfy high-level user-specified constraints are built by recombining and interpolating the frames in the observed mesh sequences. Our method brings local improvement to the synthesis process through optimized interpolated transitions, and global improvement with an optimal organizing structure that we call the essential graph.We then address the problem of building efficient appearance representations of shapes observed from multiple viewpoints and in several movements. We propose a per subject representation that identifies the underlying manifold structure of the appearance information relative to a shape. The resulting Eigen representation encodes shape appearance variabilities due to viewpoint and illumination, with Eigen textures, and due to local inaccuracies in the geometric model, with Eigen warps. In addition to providing compact representations, such decompositions also allow for appearance interpolation and appearance completion.We finally address the problem of transferring motion between captured 4D models. Given 4D training sets for two subjects for which a sparse set of semantically corresponding key-poses are known, our method is able to transfer a newly captured motion from one subject to the other. The method contributes a new transfer model based on non-linear pose and displacement interpolation that builds on Gaussian process regression
Warren, John Rodger. "A visual examination of artificial life and science fiction using 3D computer graphics and animation". The Ohio State University, 1997. http://rave.ohiolink.edu/etdc/view?acc_num=osu1382949898.
Texto completoHaley, Brent Kreh. "A Pipeline for the Creation, Compression, and Display of Streamable 3D Motion Capture Based Skeletal Animation Data". The Ohio State University, 2011. http://rave.ohiolink.edu/etdc/view?acc_num=osu1300989069.
Texto completoLarsson, Niklas. "Morph targets and bone rigging for 3D facial animation : A comparative case study". Thesis, Uppsala universitet, Institutionen för speldesign, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-327302.
Texto completoQin, Chuanshi. "How to use computer graphics to promote virtual idols based on 3D /". Online version of thesis, 2009. http://hdl.handle.net/1850/10964.
Texto completoBurns, Shana McKay. "Creating an educational tool utilizing design intensities for the set design process of 3D computer animation". The Ohio State University, 2006. http://rave.ohiolink.edu/etdc/view?acc_num=osu1328731602.
Texto completoGlass, Kevin Robert. "Automating the conversion of natural language fiction to multi-modal 3D animated virtual environments". Thesis, Rhodes University, 2009. http://hdl.handle.net/10962/d1006518.
Texto completoKamat, Vineet Rajendra. "Enabling 3D Visualization of Simulated Construction Operations". Thesis, Virginia Tech, 2000. http://hdl.handle.net/10919/35470.
Texto completoMaster of Science
Kandaswamy, Balasubramanian. "Planning techniques for agent based 3D animations". Thesis, University of North Texas, 2005. https://digital.library.unt.edu/ark:/67531/metadc4958/.
Texto completoWang, Jing. "Reconstruction and Analysis of 3D Individualized Facial Expressions". Thesis, Université d'Ottawa / University of Ottawa, 2015. http://hdl.handle.net/10393/32588.
Texto completoHarris, Jane. "Surface tension - the aesthetic fabrication of digital textiles : (the design and construction of 3D computer graphic animation)". Thesis, Royal College of Art, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.393907.
Texto completoBaecher, Moritz Niklaus. "From Digital to Physical: Computational Aspects of 3D Manufacturing". Thesis, Harvard University, 2013. http://dissertations.umi.com/gsas.harvard:11149.
Texto completoEngineering and Applied Sciences
Triki-Bchir, Olfa. "Modélisation, reconstruction et animation de personnages virtuels 3D à partir de dessins manuels 2D". Phd thesis, Université René Descartes - Paris V, 2005. http://tel.archives-ouvertes.fr/tel-00273248.
Texto completoLes défis à relever par l'industrie du dessin animé 2D se formulent donc en termes de:
1. Réutilisation des contenus selon le paradigme Create once, render many,
2. Facilité d'échange et de transmission des contenus, ce qui nécessite de disposer d'un unique format de représentation,
3. Production efficace et économique des contenus, requérant une animation automatisée par ordinateur.
Dans ce contexte compétitif, ce travail de thèse, réalisé dans le cadre du projet industriel TOON financé par la société Quadraxis avec le support de l' Agence Nationale de Valorisation de la Recherche (Oséo-ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D pour les dessins animés 2D.
Un état de l'art des méthodes et outils contribuant à la reconstruction de modèles 3D et à leur animation est présenté et discuté au regard des contraintes spécifiques des règles de création des dessins animés 2D et de la chaîne de fabrication traditionnelle. Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur :
* l'élaboration d'une méthode de reconstruction de personnages virtuels 3D à partir de dessins 2D,
* la mise au point d'une procédure de reconstruction surfacique par NURBS dotée d'une capacité de déformation interactive 2D/3D,
* la conception d'un module de modélisation 3D pour surfaces maillées, compatible avec le standard d'animation MPEG-4/AFX.
Les développements réalisés, intégrés dans un prototype de la plate-forme TOON, montrent un gain en temps de 20% sur l'ensemble de la chaîne de production tout en garantissant une complète interopérabilité des applications via le standard MPEG-4.
Elisei, Frédéric. "Clones 3D pour communication audio et vidéo". Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004829.
Texto completoFernández, Baena Adso. "Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters". Doctoral thesis, Universitat Ramon Llull, 2015. http://hdl.handle.net/10803/311800.
Texto completoAquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots.
Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
Hed-Tegelbratt, Linus y Johan Leosson. "Skapandet av animerad 3D-film från idé till färdig produkt". Thesis, Högskolan i Gävle, Avdelningen för Industriell utveckling, IT och Samhällsbyggnad, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:hig:diva-14436.
Texto completoHale, Ryan Nathan. "INTIMATE CINEMA: AVANT-GARDE FILM INFLUENCING A BIOGRAPHICAL STORY OF DISCOVERY IN COMPUTER ANIMATION". The Ohio State University, 2011. http://rave.ohiolink.edu/etdc/view?acc_num=osu1306950792.
Texto completoZhang, Li. "Human animation from analysis and reconstruction of human motion in video sequences". Thesis, Curtin University, 2009. http://hdl.handle.net/20.500.11937/684.
Texto completoDahle, Theo. "Culture and 3D animation : A study of how culture and body language affects the perception of animated 3D characters". Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-17242.
Texto completoRoussellet, Valentin. "Implicit muscle models for interactive character skinning". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30055/document.
Texto completoSurface deformation, or skinning is a crucial step in 3D character animation. Its role is to deform the surface representation of a character to be rendered in the succession of poses specified by an animator. The quality and plausiblity of the displayed results directly depends on the properties of the skinning method. However, speed and simplicity are also important criteria to enable their use in interactive editing sessions. Current skinning methods can be divided in three categories. Geometric methods are fast and simple to use, but their results lack plausibility. Example-based approaches produce realistic results, yet they require a large database of examples while remaining tedious to edit. Finally, physical simulations can model the most complex dynamical phenomena, but at a very high computational cost, making their interactive use impractical. The work presented in this thesis are based on, Implicit Skinning, is a corrective geometric approach using implicit surfaces to solve many issues of standard geometric skinning methods, while remaining fast enough for interactive use. The main contribution of this work is an animation model that adds anatomical plausibility to a character by representing muscle deformations and their interactions with other anatomical features, while benefiting from the advantages of Implicit Skinning. Muscles are represented by an extrusion surface along a central axis. These axes are driven by a simplified physics simulation method, introducing dynamic effects, such as jiggling. The muscle model guarantees volume conservation, a property of real-life muscles. This model adds plausibility and dynamics lacking in state-of-the-art geometric methods at a moderate computational cost, which enables its interactive use. In addition, it offers intuitive shape control to animators, enabling them to match the results with their artistic vision
Konečný, Kamil. "Animovaný 3D model". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2016. http://www.nusl.cz/ntk/nusl-255330.
Texto completoApaydin, Ozan. "Networked humanoid animation driven by human voice using extensible 3D (X3D), H-Anim and JAVA speech open standards". Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2002. http://handle.dtic.mil/100.2/ADA401793.
Texto completo