Dissertations / Theses on the topic 'Tangible user Interfaces, Interaction design'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Tangible user Interfaces, Interaction design.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Bijman, Nicolaas Peter. "Exploring affordances of tangible user interfaces for interactive lighting." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-248002.
Full textDen här studien utforskar gripbar (tangible) interaktionsdesign med fokus på ljus och belysning. Vid användning av ett gripbart (tangible) gränssnitt används den fysiska miljön som gränssnitt. Detta skiljer sig till stor del från interaktion med ett grafiskt användargränssnitt, där alla interaktioner sker och begränsas av en skärms egenskaper. Denna studie fokuserar på rumslig (spatial) interaktionsdesign, vilket är en del av gripbar interaktionsdesign. Rumslig interaktion refererar till översättning, rotation eller plats av objekt eller människor i ett utrymme. Ett användartest har utförts för att testa vad för effekt olika rumsliga indata och designegenskaper har på förväntad utdata för ljus och belysning. Resultatet från användartestet visar att starka affordances och begränsningar, tillsammans med överlappningen av rumslig indata och utdata för ljus och belysning, är de viktigaste egenskaperna för att designa tydliga övergångar.
Stenbacka, Erik. "Cubieo : Observations of Explorative User Behavior with an Abstract Tangible Interface." Thesis, Södertörns högskola, Institutionen för naturvetenskap, miljö och teknik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:sh:diva-19639.
Full textMerrad, Walid. "Interfaces tangibles et réalité duale pour la résolution collaborative de problèmes autour de tables interactives distribuées." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0010.
Full textIn everyday life, new interactions are gradually replacing the standard computer keyboardand mouse, by using the human body gestures (hands, fingers, head, etc.) as alternativesof interactions on surfaces and in-air. Another type of interaction resides within the manipulationof everyday objects to interact with digital systems. Interactive tabletops haveemerged as new platforms in several domains, offering better usability and facilitatingmulti-user collaboration, thanks to their large display surface and different interactiontechniques on their surfaces, such as multi-touch and tangible. Therefore, improving interaction(s) on these devices and combining it (respectively them) with other conceptscan prove more useful and helpful in the everyday life of users and designers.The topic of this thesis focuses on studying user interactions on tangible interactivetabletops, in a context of use set in a dual reality environment. Tangible User Interfacesoffer users the possibility to apprehend and grasp the meaning of digital information bymanipulating insightful tangible representations in our physical world. These interactionmetaphors are bridging both environments that constitute the dual reality: the physicalworld and the virtual world.In this perspective, this work presents a theoretical contribution along with itsapplications. We propose to combine tangible interaction on tabletops and dual realityin a conceptual framework, basically intended for application designers, that models andexplains interactions and representations, which operate in dual reality setups. First ofall, we expose various works carried out in the field of tangible interaction in general,then we focus on existing work conducted on tabletops. We also propose to list 112interactive tabletops, classified and characterized by several criteria. Next, we presentthe dual reality concept and its possible application domains. Second, we design ourproposal of the framework, illustrate and explain its composing elements, and how itcan adapt to various situations of dual reality, particularly with interactive tabletopsequipped with RFID technology. Finally, and as application contributions, we show casestudies that we designed based on our proposal, which illustrate implementations ofelements from our proposed framework. Research perspectives are finally highlighted atthe end of the manuscript
De, Oliveira Clarissa C. "Experience Programming: an exploration of hybrid tangible-virtual block based programming interaction." Thesis, Malmö universitet, Fakulteten för kultur och samhälle (KS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-22279.
Full textSirera, I. Pulido Judith. "Designing A Tangible Device for Re-Framing Unproductivity." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-285518.
Full textI rapporten redogör vi utformningen av ett fysiskt verktyg vars syfte är att öka acceptansen för icke-produktiv tid. Först användes intervjuer för att skapa en bättre förståelse och insikt i vad en “produktiv upplevelse” är. Intervjuerna visade att, samtidigt som idéen av att vara produktiv kan ge positiva känslor i form av “uppfyllnad”, så kan hanteringen av icke-produktiv tid vara jobbig och därmed negativt påverka människors humör och självkänsla. Insikterna från intervjuerna användes som stöd för designen och implementationen av RU, ett fysiskt verktyg vars användning är menad att härleda till reflektion samt tid för självvård. Prototypen är en fysisk representation av vad som anses var den stereotypiska bilden av ett produktivt sinne. Prototypen spelar på idéen av att koppla samman och ge energi i syfte om att motivera användaren att uppleva oproduktiv tid som självvård. I en ytterligare exekverad studie använde deltagarna RU under 5 dagar där resultatet indikerade på att verktyget motiverar till reflektion i aktiviteter bortom jobb och en ökad medvetenhet om vikten i att ta sig tiden för självvård.
Myra, Jess. "Memorality: The Future of Our Digital Selves." Thesis, Umeå universitet, Institutionen Designhögskolan, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-74466.
Full textTaylor, Jennyfer Lawrence. "Ngana Wubulku Junkurr-Jiku Balkaway-Ka: The intergenerational co-design of a tangible technology to keep active use of the Kuku Yalanji Aboriginal language strong." Thesis, Queensland University of Technology, 2020. https://eprints.qut.edu.au/206447/1/Jennyfer_Taylor_Thesis.pdf.
Full textIezzi, Valeria. "Connectedness : Designing interactive systems that foster togetherness as a form of resilience for people in social distancing during Covid-19 pandemic. Exploring novel user experiences in the intersection between light perception, tangible interactions and social interaction design (SxD)." Thesis, Malmö universitet, Malmö högskola, Institutionen för konst, kultur och kommunikation (K3), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-37697.
Full textPederson, Thomas. "From Conceptual Links to Causal Relations — Physical-Virtual Artefacts in Mixed-Reality Space." Doctoral thesis, Umeå : Univ, 2003. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-137.
Full textKnibbe, Cédric. "Concevoir avec des technologies émergentes pour la construction conjointe des pratiques et des artefacts : apports d’une méthodologie participative à l’innovation technologique et pédagogique." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1123/document.
Full textInformation and Communication Technologies have the potential for deeply transforming teachers’ practices. However, this requires design solutions to be adapted to these practices and, at the same time, to foster innovations, in terms of improvements for teaching and learning activities. This thesis aims at highlighting design factors that allow the articulation between these goals, in the context of a design project with emerging technologies for education. The research focuses onthe design process: joint definition of a technical system (an application on an interactive tabletop) and of teaching practices (via pedagogical scenarios); involvement of future users; design hypothesis assessment modalities; framing the scope of design possibilities. Our hypotheses concern the potential effects of these factors on the reaching of a compromise between integration and innovation related goals.Analyses cover the entire design process, in order to longitudinally examine the various design techniques used and the design process advancement. In particular, design choices related to some of the features of the artifact are analyzed to investigate the links between design factors and integration/innovation related goals.Results show that: (i) using and redefining pedagogical scenarios, involving users as co-designers, confronting the design solutions with prototypes and simulations and identifying users’ needs facilitate the technical definition of the application and its integration in future teaching activities; (ii) defining the technical properties of an artifact, involving teachers as experimenters, identifying their needs and simulating on the design solution foster the adaptation of teachers’ practices to the specificities of the technologies and optimize its integration ; (iii) allowing participants to interact with the emerging technology in different ways and the mutual learning processes between designers, regarding tabletops technical and interactional potential,help them capitalize on this potential ; (iv) identifying the innovative features of tabletops, anticipating their potential uses, testing prototypes in real class situations and involving teachers, to let them learn how to use an emerging technology and to express the existing limits of in their teaching practices, foster innovation in their pedagogical scenarios and, thus, can improve teaching and learning activities
Aljundi, Liam. "Moving Mathematics : Exploring constructivist tools to enhance mathematics learning." Thesis, Malmö universitet, Institutionen för konst, kultur och kommunikation (K3), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-42981.
Full textFarr, William John. "Tangible user interfaces and social interaction in children with autism." Thesis, University of Sussex, 2011. http://sro.sussex.ac.uk/id/eprint/6962/.
Full textLe, Goc Mathieu. "Supporting Versatility in Tangible User Interfaces Using Collections of Small Actuated Objects." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS563/document.
Full textIn this dissertation, I present my work aiming at making tangible user interfaces more versatile with a higher degree of physicality, in order to bridge the gap between digital and physical worlds. To this end, I study and design systems which support interaction with digital information while better leveraging human hand capabilities. I start with an examination of the current related work, and highlight the need for further research towards more versatility with a higher degree of physicality. I argue that the specificity of existing systems tends to impair their usability and diffusion and induce a dependence on screens and other projections as media to represent the digital world. Building on lessons learned from previous work, I choose to focus my work on physical systems made of collections of generic and interactive objects. I articulate my research in four steps. Firstly, I present a study that compares tangible and multitouch interfaces to help assess potential benefits of physical objects. At the same time, I investigate the influence of object thickness on how users manipulate objects. Results suggest that conclusions from numerous previous studies need to be tempered, in particular regarding the advantages of physicality in terms of performance. These results however confirm that physicality improves user experience, due to the higher diversity of possible manipulations. As a second step, I present SmartTokens, a system based on small objects capable of detecting and recognizing user manipulations. I illustrate SmartTokens in a notification and personal task management scenario. In a third step, I introduce Swarm User Interfaces as a subclass of tangible user interfaces that are composed of collections of many interactive autonomous robots. To illustrate them, I present Zooids, an open-source open-hardware platform for developing tabletop Swarm User Interfaces. I demonstrate their potential and versatility through a set of application scenarios. I then describe their implementation, and clarify design considerations for Swarm User Interfaces. As a fourth step, I define composite data physicalizations and implement them using Zooids. I finally draw conclusions from the presented work, and open perspectives and directions for future work
Nowacka, Diana. "Autonomous behaviour in tangible user interfaces as a design factor." Thesis, University of Newcastle upon Tyne, 2017. http://hdl.handle.net/10443/3708.
Full textEibl, Maximilian, and Marc Ritter. "Workshopband der Mensch & Computer 2011." Technische Universität Chemnitz, 2011. https://monarch.qucosa.de/id/qucosa%3A19535.
Full textFirst initiated in 2001, the conference series Mensch & Comuter has evolved as the leading event in the area of human-computer interaction in German speaking countrires hosting extremely vivid and exciting contributions with an audience that is keen to debate. Taking place the 11th time under the topical theme überMEDIEN|ÜBERmorgen, key topics of the conference are media themselves and their opportunities, risks, uses, influence on our lives and our influence on them, today and tomorrow. From the beginning, the workshops being organized by the community constitute a major part of the conference. These proceedings cover the contributions of eight workshops and two brief descriptions from Mensch & Computer as well as one workshop from Entertainment Interface track. Begreifbare Interaktion in gemischten Wirklichkeiten Interaktive Displays in der Kooperation – Herausforderung an Gestaltung und Praxis Motivation und kulturelle Barrieren bei der Wissensteilung im Enterprise 2.0 (MKBE 2011) Mousetracking – Analyse und Interpretation von Interaktionsdaten Menschen, Medien, Auto-Mobilität mi.begreifbar – Medieninformatik begreifbar machen Partizipative Modelle des mediengestützten Lernens – Erfahrungen und Visionen Innovative Computerbasierte Musikinterfaces (ICMI) Senioren. Medien. Übermorgen. Designdenken in Deutschland Game Development in der Hochschulinformatik
Riedenklau, Eckard [Verfasser]. "Development of actuated Tangible User Interfaces: new interaction concepts and evaluation methods / Eckard Riedenklau." Bielefeld : Universitätsbibliothek Bielefeld, 2016. http://d-nb.info/1082845000/34.
Full textRose, Cody M. (Cody McCullough). "Towards interactive sustainable neighborhood design : combining a tangible user interface with real time building simulations." Thesis, Massachusetts Institute of Technology, 2015. http://hdl.handle.net/1721.1/99253.
Full textThis electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.
Cataloged from student-submitted PDF version of thesis.
Includes bibliographical references (pages 73-74).
An increasingly urbanizing human population presents new challenges for urban planners and designers. While the field of urban design tools is expanding, urban development scenarios require the input of multiple stakeholders, each with different outlooks, expertise, requirements, and preconceptions, and good urban design requires communication and compromise as much as it requires effective use of tools. The best tools will facilitate this communication while remaining evidence-based, allowing diverse planning teams to develop high quality, healthy, sustainable urban plans. Presented in this work is a new such urban design tool, implemented as a design "game," created to facilitate collaboration between urban planners, designers, policymakers, citizens, and any other stakeholders in urban development scenarios. Users build a neighborhood or city out of Lego pieces on a plexiglass tabletop, and the system simulates the built design in real time, projecting colors onto the Lego pieces that reflect their performance with respect to three urban performance metrics: operational energy consumption, neighborhood walkability, and building daylighting availability. The system requires little training, allowing novice users to explore the design tradeoffs associated with urban density. The simulation method uses a novel precalculation method to quickly approximate the results of existing, validated simulation tools. The game is presented in the context of a case study that took place at the planning commission of Riyadh, Saudi Arabia in March 2015. Post-game analysis indicates that the precalculation method performs suitable approximations in the Saudi climate, and that users were able to use the interface to improve their neighborhoods' performance with respect to two of the three offered performance metrics. Furthermore, users demonstrated substantial enthusiasm for interactive, tangible, urban design of the sort provided. Improvements to future versions of the design game based on the case study are suggested, but overall, the work presented indicates that collaborative, interactive design tools for diverse stakeholders are an excellent path forward for sustainable design.
by Cody M. Rose.
S.M. in Building Technology
Edge, D. K. "Tangible user interfaces for peripheral interaction : episodic engagement with objects of physical, digital & social significance." Thesis, University of Cambridge, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.598755.
Full textFinkelstein, Ali (Ali S. ). "Implementation and design of an updated user interface for an interactive 3D printed tangible map of MIT." Thesis, Massachusetts Institute of Technology, 2017. http://hdl.handle.net/1721.1/112848.
Full textThis electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.
Cataloged from student-submitted PDF version of thesis.
Includes bibliographical references (page 29).
The Tangible Map is a unique exhibit created by the MIT Mobile Experience lab located in the Atlas Welcome Service Center created to display dynamic data, like shuttle status and event information, collected across the campus of MIT in an interactive manner. Now, in the final stage of implementation, extensive research on the user interface demonstrated it was lacking in features to provide a rich and engaging experience with the Tangible Map. In this study, I explore how an updated user interface improves the user's interactions when accessing live data, as well as provides a rich experience of enhanced map functionalities. Additionally, I further discuss the establishment and implementation of a new user interface that provides this updated experience.
by Ali Finkelstein.
M. Eng.
Schmidt, Toni. "Interaction Concepts for Multi-Touch User Interfaces: Design and Implementation." [S.l. : s.n.], 2008. http://nbn-resolving.de/urn:nbn:de:bsz:352-opus-72395.
Full textRivière, Guillaume. "Interaction tangible sur table interactive : application aux géosciences." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13837/document.
Full textThis thesis focuses on tangible user interfaces (TUI). The first part of this manuscript is about tangible interaction on tabletop. We first introduce TUIs and tabletops. We validate an hypothesis about the specialization of the form of the tangible objects, and conclude from that consequences on TUIs design. We propose the solution of a button box to deport some operations in the context of tabletop TUI. We present the construction and development of a transportable and low cost tabletop TUI system that allows rapid TUI prototyping. We end pointing out the special features of user experiments of TUIs. The second part of this manuscript deals with an application case of a TUI for geoscience: GeoTUI. We start presenting the context of the geophysicists work and their need in term of new way of interation. We present the results of our design of a TUI for geoscience. We detail the development of our prototype. To finish, we present two user experiments we conducted to validate our design choices
Reeves, Leah. "OPTIMIZING THE DESIGN OF MULTIMODAL USER INTERFACES." Doctoral diss., University of Central Florida, 2007. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/4130.
Full textPh.D.
Department of Industrial Engineering and Management Systems
Engineering and Computer Science
Industrial Engineering PhD
Micheloni, Edoardo. "Models and methods for sound-based input in Natural User Interfaces." Doctoral thesis, Università degli studi di Padova, 2019. http://hdl.handle.net/11577/3422847.
Full textJain, Nibha. "Exploring interactive tangrams for teaching basic school physics." Thesis, Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/34755.
Full textTook, Roger Kenton. "Surface interaction : separating direct manipulation interfaces from their applications." Thesis, University of York, 1990. http://etheses.whiterose.ac.uk/13997/.
Full textCarden, Benjamin J. "Do touch: The impact of tangible interaction on situated community engagement." Thesis, Queensland University of Technology, 2019. https://eprints.qut.edu.au/127641/1/Benjamin_Carden_Thesis.pdf.
Full textSadun, Erica. "Djasa : a language, environment and methodology for interaction design." Diss., Georgia Institute of Technology, 1996. http://hdl.handle.net/1853/9250.
Full textMathew, Justin D. "A design framework for user interfaces of 3D audio production tools." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS328/document.
Full textThere has been a significant interest in providing immersive listening experiences for a variety of applications, and recent improvements in audio production have provided the capability for 3D audio practitioners to produce realistic and imaginative immersive auditory scenes. Even though technologies to reproduce 3D audio content are becoming readily available for consumers, producing and authoring this type of content is difficult due to the variety of rendering techniques, perceptual considerations, and limitations of available user interfaces. This thesis examines these issues through the development of a framework of design spaces that classifies how 3D audio objects can be created and manipulated from two different viewpoints : Morphological Analysis of 3D Audio Methods and Practices and Interaction Design. By gathering ethnographic data on tools, methods, and practices of 3D audio practitioners, overviewing spatial perception related to 3D audio, and conducting a morphological analysis on related objects of interest (3D audio objects, interactive parameters, and rendering techniques), we identified the tasks required to produce 3D audio content and how 3D audio objects can be created and manipulated. This work provided the dimensions of two design spaces that identify the interactive spatial parameters of audio objects by their recording and rendering methods, describing how user interfaces provide visual feedback and control the interactive parameters. Lastly, we designed several interaction techniques for 3D audio authoring and studied their performance and usability according to different characteristics of input and mapping methods (multiplexing, integrality, directness). We observed performance differences when creating and editing audio trajectories, suggesting that increasing the directness of the mapping technique improves performance and that a balance between separability and integrality of input methods can result into a satisfactory trade-off between user performance and cost of equipment. This study provided results that inform designers on what they might expect in terms of usability when designing input and mapping methods for 3D audio trajectory authoring tasks. From these viewpoints, we proposed design criteria required for user interfaces for 3D audio user production that developed and improved the framework of design spaces. We believe this framework and the results of our studies could help designers better account for important dimensions in the design process, analyze functionalities in current tools, and improve the usability of user interfaces for 3D audio production tools
Santos, Lages Wallace. "Walk-Centric User Interfaces for Mixed Reality." Diss., Virginia Tech, 2018. http://hdl.handle.net/10919/84460.
Full textPh. D.
Nobelius, Jörgen. "Fysisk, känslomässig och social interaktion : En analys av upplevelserna av robotsälen Paro hos kognitivt funktionsnedsatta och på äldreboende." Thesis, Södertörns högskola, Institutionen för kommunikation, medier och it, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:sh:diva-15096.
Full textDenna fältstudie undersökte hur äldre och kognitivt funktionsnedsatta personer använde och upplevde en social robot. Följande sidor utforskar frågorna: Vilka fysiska, sociala och affektiva kvaliteter finns i interaktionen? Målet var att genom observationer se hur kvaliteterna i interaktionen kunde aktivera olika typer av beteenden. Resultatet visar att rörelse, ljud och ögon tillsammans skapade kommunikativa och känslomässiga förändringar hos användarna som visade glädje och som gärna delade upplevelsen med andra. Roboten stimulerade till viss del användarna att skapa egna fantasifulla upplevelser men lyckades inte ofta involvera användare eller grupp under någon längre tid och ansågs även vara för stor och tung att hantera.
CAMPANA, JULIA RAMOS. "DESIGN OF GRAPHICAL ROBOT USER INTERFACES: A STUDY OF USABILITY AND HUMAN-MACHINE INTERACTION." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2018. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=34356@1.
Full textHoje, os constantes avanços tecnológicos em interfaces digitais, e por consequência as interfaces gráficas do usuário, se fazem cada vez mais presentes na interação humano-máquina. Porém, num contexto em que sistemas inteligentes, a exemplo dos sistemas robóticos, já são uma realidade, ainda restam lacunas a serem preenchidas quando se pensa em integrar, com fluidez, robôs a trabalhos customizados e complexos. Esta pesquisa tem como foco a análise da usabilidade de interfaces de usuário específicas para a interação com robôs remotos também conhecidas como Robot User Interfaces (RUIs). Quando bem executadas, tais interfaces permitem aos operadores realizar remotamente tarefas em ambientes complexos. Para tanto, trabalha-se com a hipótese de que, se RUIs forem concebidas considerando as especificidades desses modelos de interação, as falhas operacionais serão reduzidas. O objetivo desta pesquisa foi avaliar diretrizes específicas para sistemas robóticos, compreendendo a relevância destas na usabilidade de interfaces. Para uma base teórica, foram levantados os modelos já existentes de interação com robôs e sistemas automatizados; e os princípios de design que se aplicam a estes modelos. Após a revisão bibliográfica, foram realizadas entrevistas contextuais com usuários de sistemas robóticos e testes de usabilidade, a fim de reproduzir, em interfaces com e sem diretrizes de RUIs, os processos de interação na realização de tarefas. Os resultados finais das técnicas aplicadas apontaram para a validade da hipótese - se interfaces específicas para sistemas robóticos forem concebidas considerando as especificidades dos modelos de interação humano-robô, as falhas operacionais na interação serão reduzidas - à medida que os sistemas desenvolvidos com interfaces específicas ao contexto de interação com robôs proporcionaram uma melhor usabilidade e mitigaram a ocorrência de uma série de possíveis falhas humanas.
Nowadays, the constant technological advances, and consequently the graphical user interfaces, have become more and more present in the humanmachine interaction. However, in a context where intelligent systems, such as robotic systems, are already a reality, there are still gaps to be filled when we think about integrating robots with custom and complex activities. This research aims on the analysis of Robot User Interfaces (RUIs) usability. When well executed, such interfaces allow operators to remotely perform tasks in complex environments. To that intent, our hypothesis is that, if RUIs are conceived considering the specificities of these interaction models, operational failures will be reduced. The main goal of this research was to evaluate specific guidelines for robotic systems, understanding their relevance in usability. For a theoretical basis, the existing models of interaction with robots and autonomous systems were raised; as well as the design principles that apply to these models. After a bibliographic review, we conducted contextual interviews with users of robotic systems, and usability tests to reproduce, in interfaces with and without RUI guidelines, the interaction processes in the task completion. The final results of the applied techniques proved the validity of the hypothesis, as the systems developed with interfaces specific to the interaction with robots provided better usability and mitigated the occurrence of array of human faults.
Lindberg, Martin. "Introducing Gestures: Exploring Feedforward in Touch-Gesture Interfaces." Thesis, Malmö universitet, Fakulteten för kultur och samhälle (KS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-23555.
Full textSeichter, Hartmut. "Augmented reality aided design." Thesis, View the Table of Contents & Abstract, 2007. http://sunzi.lib.hku.hk/hkuto/record/B38289052.
Full textFernández, Baena Adso. "Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters." Doctoral thesis, Universitat Ramon Llull, 2015. http://hdl.handle.net/10803/311800.
Full textAquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots.
Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
Jansen, Yvonne. "Physical and tangible information visualization." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-00983501.
Full textParra, González Luis Otto. "gestUI: a model-driven method for including gesture-based interaction in user interfaces." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/89090.
Full textLa investigación reportada y discutida en esta tesis representa un método nuevo para definir gestos personalizados y para incluir interacción basada en gestos en interfaces de usuario de sistemas software con el objetivo de ayudar a resolver los problemas encontrados en la literatura relacionada respecto al desarrollo de interfaces basadas en gestos de usuarios. Este trabajo de investigación ha sido realizado de acuerdo a la metodología Ciencia del Diseño, que está basada en el diseño e investigación de artefactos en un contexto. En esta tesis, el nuevo artefacto es el método dirigido por modelos para incluir interacción basada en gestos en interfaces de usuario. Esta metodología considera dos ciclos: el ciclo principal, denominado ciclo de ingeniería, donde se ha diseñado un método dirigido por modelos para incluir interacción basada en gestos. El segundo ciclo es el ciclo de investigación, donde se definen dos ciclos de este tipo. El primero corresponde a la validación del método propuesto con una evaluación empírica y el segundo ciclo corresponde a un Technical Action Research para validar el método en un contexto industrial. Adicionalmente, Ciencia del Diseño provee las claves sobre como conducir la investigación, sobre cómo ser riguroso y poner en práctica reglas científicas. Además, Ciencia del Diseño ha sido un recurso clave para organizar la investigación realizada en esta tesis. Nosotros reconocemos la aplicación de este marco de trabajo puesto que nos ayuda a reportar claramente nuestros hallazgos. Esta tesis presenta un marco teórico introduciendo conceptos relacionados con la investigación realizada, seguido por un estado del arte donde conocemos acerca del trabajo relacionado en tres áreas: Interacción Humano-Ordenador, paradigma dirigido por modelos en Interacción Humano-Ordenador e Ingeniería de Software Empírica. El diseño e implementación de gestUI es presentado siguiendo el paradigma dirigido por modelos y el patrón de diseño Modelo-Vista-Controlador. Luego, nosotros hemos realizado dos evaluaciones de gestUI: (i) una evaluación empírica basada en ISO 25062-2006 para evaluar la usabilidad considerando efectividad, eficiencia y satisfacción. Satisfacción es medida por medio de la facilidad de uso percibida, utilidad percibida e intención de uso; y, (ii) un Technical Action Research para evaluar la experiencia del usuario y la usabilidad. Nosotros hemos usado Model Evaluation Method, User Experience Questionnaire y Microsoft Reaction Cards como guías para realizar las evaluaciones antes mencionadas. Las contribuciones de nuestra tesis, limitaciones del método y de la herramienta de soporte, así como el trabajo futuro son discutidas y presentadas.
La investigació reportada i discutida en aquesta tesi representa un mètode per definir gests personalitzats i per incloure interacció basada en gests en interfícies d'usuari de sistemes de programari. L'objectiu és ajudar a resoldre els problemes trobats en la literatura relacionada al desenvolupament d'interfícies basades en gests d'usuaris. Aquest treball d'investigació ha sigut realitzat d'acord a la metodologia Ciència del Diseny, que està basada en el disseny i investigació d'artefactes en un context. En aquesta tesi, el nou artefacte és el mètode dirigit per models per incloure interacció basada en gests en interfícies d'usuari. Aquesta metodologia es considerada en dos cicles: el cicle principal, denominat cicle d'enginyeria, on es dissenya un mètode dirigit per models per incloure interacció basada en gestos. El segon cicle és el cicle de la investigació, on es defineixen dos cicles d'aquest tipus. El primer es correspon a la validació del mètode proposat amb una avaluació empírica i el segon cicle es correspon a un Technical Action Research per validar el mètode en un context industrial. Addicionalment, Ciència del Disseny proveeix les claus sobre com conduir la investigació, sobre com ser rigorós i ficar en pràctica regles científiques. A més a més, Ciència del Disseny ha sigut un recurs clau per organitzar la investigació realitzada en aquesta tesi. Nosaltres reconeixem l'aplicació d'aquest marc de treball donat que ens ajuda a reportar clarament les nostres troballes. Aquesta tesi presenta un marc teòric introduint conceptes relacionats amb la investigació realitzada, seguit per un estat del art on coneixem a prop el treball realitzat en tres àrees: Interacció Humà-Ordinador, paradigma dirigit per models en la Interacció Humà-Ordinador i Enginyeria del Programari Empírica. El disseny i implementació de gestUI es presenta mitjançant el paradigma dirigit per models i el patró de disseny Model-Vista-Controlador. Després, nosaltres hem realitzat dos avaluacions de gestUI: (i) una avaluació empírica basada en ISO 25062-2006 per avaluar la usabilitat considerant efectivitat, eficiència i satisfacció. Satisfacció es mesura mitjançant la facilitat d'ús percebuda, utilitat percebuda i intenció d'ús; (ii) un Technical Action Research per avaluar l'experiència del usuari i la usabilitat. Nosaltres hem usat Model Evaluation Method, User Experience Questionnaire i Microsoft Reaction Cards com guies per realitzar les avaluacions mencionades. Les contribucions de la nostra tesi, limitacions del mètode i de la ferramenta de suport així com el treball futur són discutides i presentades.
Parra González, LO. (2017). gestUI: a model-driven method for including gesture-based interaction in user interfaces [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/89090
TESIS
Büring, Thorsten. "Zoomable user interfaces on small screens presentation and interaction design for pen-operated mobile devices /." [S.l. : s.n.], 2007. http://nbn-resolving.de/urn:nbn:de:bsz:352-opus-32080.
Full textHinson, Kenneth Paul. "A foundation for translating user interaction designs into OSF/Motif-based software." Thesis, Virginia Tech, 1994. http://hdl.handle.net/10919/40635.
Full textUser Action Notation (UAN) is a useful technique for representing user interaction designs in the behavioral domain. Primary abstractions in UAN-expressed designs are user tasks. Information about interface objects is encapsulated in user task descriptions and scenarios. Primary abstractions in a GUI such as Motifâ ¢ are interface objects. Motif implements objects' behavior and appearance using system functions that are encapsulated within pre-defined object classes. Therefore, user interaction developers and software developers must communicate well to translate UAN-expressed interaction designs into Motif-based software designs. Translation is not trivial since it is a translation between two significantly different domains.
This thesis contributes to understanding of the user interface development process
by developing a foundation to assist translation of user interaction designs into Motif-based
software designs. This thesis develops the foundation as follows:
1. Adapt UAN for use with Motif.
2. Summarize Motif concepts about objects and object relationships.
3. Develop new approaches for discussing objects and object relationships.
4. Develop a partial translation guide containing VAN descriptions of selected
Motif abstractions.
Master of Science
Fröjdman, Sofia. "User experience guidelines for design of virtual reality graphical user interfaces controlled by head orientation input." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-12522.
Full textGabbard, Joseph L. "Usability Engineering of Text Drawing Styles in Augmented Reality User Interfaces." Diss., Virginia Tech, 2008. http://hdl.handle.net/10919/29093.
Full textPh. D.
Wentzel, Alicia Veronica. "User interface design guidelines for digital television virtual remote controls." Thesis, Rhodes University, 2016. http://hdl.handle.net/10962/d1020617.
Full textVan, Tonder Bradley Paul. "Enhanced sensor-based interaction techniques for mobile map-based applications." Thesis, Nelson Mandela Metropolitan University, 2012. http://hdl.handle.net/10948/d1012995.
Full textYang, Grant. "WIMP and Beyond: The Origins, Evolution, and Awaited Future of User Interface Design." Scholarship @ Claremont, 2015. http://scholarship.claremont.edu/cmc_theses/1126.
Full textLevine, Jonathan. "Computer based dialogs : theory and design /." Online version of thesis, 1990. http://hdl.handle.net/1850/10590.
Full textMwanza, Daisy. "Towards an activity-oriented design method for HCI research and practice." Thesis, n.p, 2002. http://ethos.bl.uk/.
Full textGreen, Anders. "Designing and Evaluating Human-Robot Communication : Informing Design through Analysis of User Interaction." Doctoral thesis, KTH, Människa-datorinteraktion, MDI, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-9917.
Full textQC 20100714
Hawthorn, Dan. "Designing Effective Interfaces for Older Users." The University of Waikato, 2006. http://hdl.handle.net/10289/2538.
Full textWilson, Rory Howard 1957. "An assessment of the impact of grouped item prompts versus single item prompts for human computer interface design." Thesis, The University of Arizona, 1988. http://hdl.handle.net/10150/276934.
Full textRossa, Michael. "System images : user's understanding and system structure in the design of information tools." Thesis, Royal College of Art, 1990. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.602326.
Full textBentley, Brian Todd. "Quality in use addressing and validating affective requirements /." Australasian Digital Theses Program, 2006. http://adt.lib.swin.edu.au/public/adt-VSWT20070214.143122/index.html.
Full text[Submitted for the degree of Doctor of Philosophy, Swinburne University of Technology - 2006]. Typescript. Includes bibliographical references (p. 218-231).