To see the other types of publications on this topic, follow the link: Interaction humain et machine.

Dissertations / Theses on the topic 'Interaction humain et machine'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Interaction humain et machine.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Buseyne, Julien. "Jeu vidéo et traduction, étude d’une relation humain-machine." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE001/document.

Full text
Abstract:
Depuis son acte de naissance au début des années 1970, l’industrie du jeu vidéo s’est hissée au premier rang des industries du loisir. La traduction des œuvres joua un rôle prépondérant dans la conquête de nouveaux marchés, qui a permis à certains fabricants, producteurs et éditeurs d’acquérir une dimension internationale. Les jeux vidéo sont des objets techniques interactifs dont la fabrication repose à la fois sur la programmation d’un logiciel capable de produire une structure jouable, et sur des procédés artistiques capables de produire une représentation actionnable. Ils constituent un contexte opératoire dont les propriétés posent un écheveau de problèmes que les agents chargés d’effectuer leurs traductions doivent résoudre. L’objectif de cette thèse est de produire une étude compréhensive du rapport entre jeu vidéo et traduction, approché sous l’angle de la relation entre humain et machine. Malheureusement, les pratiques de l’industrie en matière de protection de la propriété intellectuelle, la complexité des objets techniques concernés et la taille des œuvres opposent une résistance sensible à leur analyse. Elle propose d’y remédier par une analyse de la traduction comme opération technique effectuée sur une famille d’objets, le jeu vidéo, dans l’environnement que constitue le système technique numérique. Elle est parachevée par des études de cas. Sa conclusion ouvre des pistes en matière de recherche et développement, en partenariat avec les acteurs de ce secteur
Since it came into being in the beginning of the 970 decade, the video games industry made its way to the top of the entertainment industry. The translation of the product it delivered played an important part in this evolution, allowing some platform holders, developers and publishers to become worldwide actors. Video games are interactive technical artifacts. Their fabrication relies on both the coding of a software acting as a playable structure, and on artistic assets used to build its representation. Translators operating in such a context are confronted with a mesh of challenges that they need to overcome in order to successfully complete their task. This PhD thesis is a comprehensive study of the interaction between video games and translation, considered as a human-machine relationship. Unfortunately, the rules enforced by the industry regarding the protection of intellectual property, the complexity of the technical artifacts involved and the size of the productions are an impediment to any analysis. In order to remedy this situation, this study endeavors to analyze translation as a technical operation, performed on a type of artifacts, video games, while considering the digital technical system as an environment. Case studies complete this work. Its conclusion gives several leads for research and development, to be investigated in partnership with actors in the localization or video games industry
APA, Harvard, Vancouver, ISO, and other styles
2

Coutrix, Céline. "Interfaces de réalité mixte : conception et prototypage." Grenoble 1, 2009. http://www.theses.fr/2009GRE10064.

Full text
Abstract:
Depuis plusieurs décennies, la recherche en Interaction Homme-Machine travaille sur les systèmes qui mélangent le monde physique avec le monde numérique. Les interfaces de réalité mixte visent à faire disparaître la frontière entre ces deux mondes. Face au manque de capitalisation et d'aide lors de la conception de ces systèmes, nos travaux ont pour objectif de définir un modèle d'interaction avec les systèmes de réalité mixte unificateur capitalisant les approches du domaine existantes. Ce modèle, appelé Modèle d'Interaction Mixte, permet au concepteur de décrire, caractériser et explorer les techniques d'interaction. Pour cela, nous considérons les objets mixtes, à la fois physique et numérique, qui prennent part à l'interaction avec l'utilisateur. Pour opérationaliser ce modèle d'interaction pendant la conception et permettre la réalisation d'ébauches interactives simultanément, nous avons développé un outil de prototypage. Cet outil reprend les concepts du Modèle d'Interaction Mixte. Nous avons validé ces travaux en considérant deux formes de validations : conceptuelles et expérimentales. Nous avons considéré des cadres de validation existants et nous avons conçu plusieurs systèmes en collaboration avec des acteurs de la conception
Research in Human-Computer Interaction explores Mixed Reality Systems for several decades. Mixed interfaces seek to smoothly merge the physical and digital (data processing) environments. Facing a lack of capitalization and help when designing such systems, our work aims at defining a unifying model of interaction with mixed reality systems, capitalizing existing approaches in this domain. This model, called Mixed Interaction Model, allows a designer to describe, characterize and explore interaction techniques. In order to do so, we focuse on physical-digital objects taking part in the interaction with the user. In order to operationalize this interaction model during design and allow designers to realize interactive sketches simultaneously, we developped a prototyping tool. This tool capitalizes the concepts of the Mixed Interaction Model. We conducted conceptual and experimental evaluations, by considering existing validation frameworks and we designed several systems in collaboration with design actors
APA, Harvard, Vancouver, ISO, and other styles
3

Horchani, Meriam. "Vers une communication humain-machine naturelle : stratégies de dialogue et de présentation multimodales." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10290.

Full text
Abstract:
Cette thèse a pour thème la communication humain-machine multimodale pour des systèmes d'information grand-public. Dans ce contexte, la communication naturelle repose sur l'accessibilité sensoriactionnelle, cognitive et rhétorique aux informations et aux moyens d'action. Pour cela, nous identifons le rôle clef que jouent les stratégies de dialogue et de présentation : 1) La stratégie de dialogue pour des systèmes coopératifs définit la tâche dialogique qui oriente la suite du dialogue et conditionne, voire contraint, le choix du contenu, comme la relaxation, la présentation ou la restriction. 2) La stratégie de présentation définit une configuration multimodale des unités informationnelles à rendre perceptibles par l'utilisateur. Nous prônons le choix concerté de la stratégie de dialogue avec celle de présentation et nous proposons un composant logiciel dédié au choix conjoint des stratégies de dialogue et de présentation au sein de l'architecture logicielle de référence Arch. Ce nouveau composant, intermédiaire entre le contrôleur de dialogue et les composants de présentation concrète, prend en compte les contraintes de présentation, qu'elle soient définies par l'utilisateur ou issues du contexte d'utilisation et/ou d'études ergonomiques et cognitives, pour déterminer la réaction multimodale du système interactif. Outre la réalisation logicielle du composant au sein de deux systèmes, nous proposons un outil de conception destiné à des non-informaticiens qui permet la conception incrémentale et la génération d'un composant de choix pour un système donné grâce à une interface graphique. L'outil est associé à une plate-forme de simulation pour des expérimentations magicien d'Oz
This thesis focuses on multimodal human-computer communication for public service systems. In this context, the naturalness of the communication relies on sensory-motor, cognitive and rhetorical accessibility of the interactive system by the user. Towards this goal of natural communication, we identify the key role of dialogic and presentation strategies : 1) A dialogic strategy of a cooperative information system defines the behavior of the system and the content to convey : Examples include relaxation, statement and restriction. 2) A presentation strategy defines a multimodal presentation specification, specifying the allocated modalities and how these modalities are combined. Highlighting the intertwined relation of content and presentation, we identify a new software component, namely the dialogic strategy component, as a mediator between the dialogue controller and the concrete presentation components within the reference Arch software architecture. The content selection and the presentation allocation managed by the dialogic strategy component are based on various constraints including the inherent characteristics of modalities, the availability of modalities as well as explicit choices or preferences of the user. In addition to the software development of this new component in two systems, we developed a design tool, which allows ergonomists and non-programmers to define and configure the dialogic strategies and to generate the dialogic strategy component of a particular system, as part of an iterative user-centered design process. Moreover this tool is integrated with a simulation framework for wizard of Oz experiments
APA, Harvard, Vancouver, ISO, and other styles
4

Horchani, Meriam. "Vers une communication humain-machine naturelle : stratégies de dialogue et de présentation multimodales." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00258072.

Full text
Abstract:
Cette thèse a pour thème la communication humain-machine multimodale pour des systèmes d'information grand-public. Dans ce contexte, la communication naturelle repose sur l'accessibilité sensoriactionnelle, cognitive et rhétorique aux informations et aux moyens d'action. Pour cela, nous identifons le rôle clef que jouent les stratégies de dialogue et de présentation : 1) La stratégie de dialogue pour des systèmes coopératifs définit la tâche dialogique qui oriente la suite du dialogue et conditionne, voire contraint, le choix du contenu, comme la relaxation, la présentation ou la restriction. 2) La stratégie de présentation définit une configuration multimodale des unités informationnelles à rendre perceptibles par l'utilisateur. Nous prônons le choix concerté de la stratégie de dialogue avec celle de présentation et nous proposons un composant logiciel dédié au choix conjoint des stratégies de dialogue et de présentation au sein de l'architecture logicielle de référence Arch. Ce nouveau composant, intermédiaire entre le contrôleur de dialogue et les composants de présentation concrète, prend en compte les contraintes de présentation, qu'elle soient définies par l'utilisateur ou issues du contexte d'utilisation et/ou d'études ergonomiques et cognitives, pour déterminer la réaction multimodale du système interactif. Outre la réalisation logicielle du composant au sein de deux systèmes, nous proposons un outil de conception destiné à des non-informaticiens qui permet la conception incrémentale et la génération d'un composant de choix pour un système donné grâce à une interface graphique. L'outil est associé à une plate-forme de simulation pour des expérimentations magicien d'Oz.
APA, Harvard, Vancouver, ISO, and other styles
5

Callupe, Luna Jhedmar Jhonathan. "Étude du fauteuil roulant Volting : interaction, commande et assistance." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG050.

Full text
Abstract:
Une grande partie des solutions de mobilité pour les fauteuils roulants se concentre sur l'aide au déplacement de l'utilisateur.La plupart des fauteuils roulants visent à offrir une solution adaptée pour assurer la conduite adaptée et la stabilité pour l'utilisateur.Le projet Volting, développé au LISV depuis 2020, propose une nouvel axe d'étude. Il s'agit du développement d'un fauteuil roulant capable d'offrir une plus grande mobilité posturale pour l'utilisateur basée sur une inclinaison latérale.L'objectif suivi dans le projet Volting est de proposer une réappropriation de son corps avec ce déséquilibre. Dans cette optique, une première proposition a été réalisée. Elle consiste en un fauteuil roulant capable de basculer latéralement proportionnellement à l'inclinaison de l'utilisateur. Cette liberté de mouvement supplémentaire donne à l'utilisateur une plus grande capacité de gestes corporels. C'est dans ce contexte que la danse en fauteuil roulant a été choisie comme domaine d'application.Dans cette thèse, le prototype Volting a été étudié sous trois points de vue : l'interaction, la commande et l'assistance.Tout d'abord, l'interaction entre l'utilisateur et Volting fait référence à la relation entre d'inclinaison du tronc de l'utilisateur et d'inclinaison de Volting. Elle a été analysée afin de rechercher un comportement approprié. Ainsi, une analyse du modèle a été réalisée pour étudier les paramètres impliquées dans cette interaction. Des expériences ont montré que l'utilisation de notre modèle fournit les paramètres appropriés pour une cinématique correcte.Le deuxième axe d'étude porte sur le contrôle du Volting par son usager. Ainsi, l'utilisation d'un dispositif multi-capteurs, appelé WISP, a été proposée. Ce dispositif prend comme entrées de commande la posture du tronc de la personne ou la position de ses mains afin de contrôler le Volting. La logique de contrôle mise en œuvre permet à l'utilisateur de contrôler le fauteuil roulant avec une plus grande liberté dans l'exécution de gestes. WISP a été testé par une professionnelle et une amatrice de la danse en fauteuil roulant. Cela montre leur adaptation rapide dans l'utilisation du dispositif. Cela montre aussi leur motivation envers la pratique de sa danse.Le troisième axe d'étude porte sur l'utilisation de l'assistant à l'inclinaison, nommé "Glissiere" dans Volting. Ce dispositif repose sur le décalage de l'assise de l'utilisateur pour favoriser ou contrer l'inclinaison latérale de Volting et donc du corps de l'usager. Pour pré-évaluer cette solution, des expériences ont ainsi montré que des utilisateurs présentant différentes morphologies, qui n'arrivaient pas à utiliser Volting à sa pleine capacité, pouvaient utiliser Volting grâce à cet assistant
A significant portion of mobility solutions for wheelchairs focuses on assisting the user's movement. Most wheelchairs aim to provide a tailored solution that ensures appropriate driving and stability for the user. The Volting project, developed at LISV since 2020, introduces a new research direction: the development of a wheelchair capable of offering enhanced postural mobility for the user based on lateral tilting.The main objective pursued in the Volting project is to propose a reappropriation of the user's body with the imbalance caused by the tilting. In this regard, an initial proposition was made, consisting of a wheelchair capable of tilting laterally in proportion to the user's inclination. This additional freedom of movement provides the user with a greater capacity for bodily gestures, and it is in this context that wheelchair dancing was chosen as the application domain.In this thesis, the Volting prototype was studied from three perspectives: interaction, control, and assistance.Firstly, the interaction between the user and Volting refers to the relationship between the user's trunk inclination and the tilt of the Volting wheelchair. It was analyzed to find an appropriate behavior. Consequently, a model analysis was conducted to study the parameters involved in this interaction. Experiments demonstrated that the use of our model provided the appropriate parameters for correct kinematics.The second focus of this study is on the user's control of the Volting wheelchair. For this purpose, the use of a multi-sensor device called WISP was proposed. This device takes the user's trunk posture or hand position as input commands to control Volting. The implemented control logic allows the user to control the wheelchair with greater freedom in executing gestures. WISP was tested by a professional and an amateur wheelchair dancer, showing their quick adaptation to the device's use and their motivation towards dance practice.The third area of investigation concerns the use of the incline assistant, named "Glissiere" in Volting. This device relies on shifting the user's seat to promote or counteract the lateral tilt of the Volting wheelchair and, consequently, the user's body tilt. To pre-evaluate this solution, experiments showed that users with different morphologies, who were unable to use Volting to its full capacity, could use Volting with the assistance of "Glissiere."
APA, Harvard, Vancouver, ISO, and other styles
6

Avril, Eugénie. "Automatisation de l'information et fiabilité : effets sur le comportement humain." Electronic Thesis or Diss., Toulouse 2, 2020. http://www.theses.fr/2020TOU20073.

Full text
Abstract:
Face à la présence de plus en plus prépondérante des systèmes automatisés dans notre vie quotidienne, étudier les conséquences de problèmes de fiabilité de ces derniers sur le comportement humain est devenu une nécessité pour le domaine des facteurs humains. Cette thèse a pour objectif d’étudier les effets de systèmes automatisés imparfaits, dont la fiabilité n’est pas irréprochable, sur le comportement humain. Elle se focalise plus précisément sur les systèmes automatisés prenant en charge la fonction information comme présentée dans le modèle de Parasuraman, Sheridan et Wickens (2000). Ces effets sont étudiés à travers deux secteurs : le secteur aéronautique et le secteur du transport routier de marchandises. Croiser ces deux secteurs permet de mettre en place des méthodes complémentaires. Plus précisément, à travers une tâche de simulation de pilotage d’avion et une tâche d’évaluation de scénarios de planification, deux types de prise en charge de la fonction information présentant des problèmes de fiabilité ont été investigués. Ces études ont permis d’une part (1) d’approfondir les connaissances sur la fiabilité des systèmes automatisés selon les fonctions prises en charge et (2) d’apporter de nouvelles connaissances sur l’implémentation de nouveaux systèmes automatisés soutenant l’activité de planification où les études sur la fiabilité d’un système prenant en charge l’information sont inexistantes
In our daily life, it is easy to notice the overwhelming increase of automated systems. Studying the consequences of reliability problems of these systems on human behavior has become a necessity for different fields and especially for the human factors. The purpose of this thesis is to study the effects of imperfect automated systems on human behavior, knowing that their reliability is not perfect. More specifically, it focuses on automated systems that support the information function as presented in the model of Parasuraman, Sheridan and Wickens (2000). These effects are studied across two mains sectors: the aeronautical sector and the road freight transport sector. Using these two sectors allow to implement complementary methods. More precisely two types of support of the information function with reliability problems have been investigated. One is through an aircraft piloting simulation task and the second on a planning scenario evaluation task. These studies allowed on one hand (1) to deepen the knowledge on the reliability of automated systems according to the functions supported and (2) on another hand to bring new knowledge on the implementation of new automated systems supporting the planning activity where studies on the reliability of a system supporting information are non-existent
APA, Harvard, Vancouver, ISO, and other styles
7

Bailly, Gilles. "Techniques de menus : caractérisation, conception et évaluation." Grenoble 1, 2009. http://www.theses.fr/2009GRE10062.

Full text
Abstract:
Les menus permettent d'explorer et de sélectionner les commandes d'une application. Ils sont présents dans la plupart des applications et concernent un large public. Les menus sont donc au cœur de l'Interaction Homme-Machine (IHM). Aussi, cet enjeu a motivé de nombreux travaux en IHM : face au foisonnement de nouvelles techniques de menus, il n'est pas facile d'appréhender les avancées et de cerner les différences et similitudes entre les techniques de menus conçues. Dans ce contexte, cette thèse en IHM propose un espace de conception des techniques de menus, appelé MenUA. Cet espace repose sur une liste de critères utiles pour structurer les travaux sur les menus et permettre aux concepteurs d'applications de faire des choix informés. MenUA facilite aussi l'exploration de l'espace des possibilités lors de la conception : il a été à l'origine de quatre nouvelles techniques de menus que nous avons conçues, développées et évaluées : les Wave menus, les Flower menus, les Leaf menus et les Multi-Touch Menus. Les Wave menus améliorent le mode novice des Marking menus en favorisant la navigation dans la hiérarchie de commandes. En considérant la courbure des gestes de l'utilisateur, les Flower menus augmentent le nombre de commandes disponibles et améliorent l'apprentissage du mode expert des Marking menus. Les Leaf Menus sont quant à eux des menus linéaires enrichis de raccourcis gestuels et conçus pour être utilisés sur des dispositifs mobiles. Enfin, les Multi-Touch Menus exploitent la technologie multi-points des surfaces tactiles afin de naviguer et sélectionner des commandes avec les cinq doigts de la main
Menus are used for exploring and selecting commands in interactive applications. They are widespread in current applications and used by a large variety of users. As a consequence, menus are at the heart of Human-Computer Interaction (HCI) and motivate many studies in HCI. Facing the large variety of designed menu techniques, it is however difficult to have a clear understanding of the design possibilities, to understand the advances as well as to compare existing menu techniques. In this context, this thesis in HCI proposes a design space of menu techniques called MenUA. MenUA is based on a list of criteria that define a coherent framework of design issues for menus. MenUA also helps application designers to make informed design choices and is a support for exploring design alternatives. Stemming from MenUA, we designed, developed and evaluated four menu techniques: Wave menus, Flower menus, Leaf menus and Multi-Touch Menus. Wave menus improve the novice mode of Marking menus by making the navigation within the hierarchy of commands easier. Flower menus increase the menu breadth of Marking menus while supporting good learning performance of the expert mode. Leaf menus are linear menus enriched by stroke shortcuts to facilitate the selection of commands on small handheld touch-screen devices. Finally, Multi-Touch Menus exploit the recent capabilities of multi-touch surfaces in order to allow the users to explore and select commands using the five fingers of the hands
APA, Harvard, Vancouver, ISO, and other styles
8

Clodic, Aurélie. "Supervision pour un robot interactif : action et interaction pour un robot autonome en environnement humain." Toulouse 3, 2007. http://www.theses.fr/2007TOU30248.

Full text
Abstract:
Nos travaux portent sur la supervision d'un robot autonome en environnement humain et plus particulièrement sur la prise en compte de l'interaction homme-robot au niveau décisionnel. Dans ce cadre, l'homme et le robot constituent un système dans lequel ils partagent un espace commun et échangent des informations à travers différentes modalités. L'interaction peut intervenir soit sur une requête explicite de l'homme, soit parce que le robot l'a estimée utile et en a pris l'initiative. Dans les deux cas le robot doit agir afin de satisfaire un but en prenant en compte de manière explicite la présence et les préferences de son partenaire humain. Pour cela, nous avons conçu et développé un système de supervision nommé Shary qui permet de gérer des tâches individuelles (où seul le robot est impliqué) et des tâches jointes (où le robot et un autre agent sont impliqués). Ce système se compose d'une mécanique d'exécution de tâches gérant d'une part la communication nécessaire au sein d'une tâche et d'autre part l'affinement de la tâche en sous-tâches. Pour cela chaque tâche est définie par un plan de communication et un plan de réalisation auxquels sont associés des moniteurs de suivi. Nous avons développé ce système sur le robot Rackham dans le cadre d'une tâche de "Guide de musée". Nous avons également utilisé ce système dans le cadre d'une tâche du type : "apporter quelque chose à quelqu'un" sur le robot Jido pour montrer la généricité du système
Human-robot collaborative task achievement requires specific task supervision and execution. In order to close the loop with their human partners robots must maintain an interaction stream in order to communicate their own intentions and beliefs and to monitor the activity of their human partner. In this work we introduce SHARY, a supervisor dedicated to collaborative task achievement in the human robot interaction context. The system deals for one part with task refinement and on the other part with communication needed in the human-robot interaction context. To this end, each task is defined at a communication level and at an execution level. This system has been developped on the robot Rackham for a tour-guide demonstration and has then be used on the robot Jido for a task of fetch and carry to demonstrate system genericity
APA, Harvard, Vancouver, ISO, and other styles
9

He, Ruan. "Architecture et mécanismes de sécurité pour l'auto-protection des systèmes pervasifs." Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00579773.

Full text
Abstract:
Un système pervasif est un environnement dans lequel l'homme peut interagir avec des équipements qui ont des capacités de calcul et de communication. Dans cette thèse, un système pervasif correspond à un réseau (composé de terminaux) qui est :1- distribué et décentralisé: les terminaux sont physiquement distribués dans une région et sont reliés entre eux par des connexions sans fil. Quelque soit leur localisation physique, la communication sans fil les rend connectés entre eux. En plus, cette architecture distribuée demande souvent une coordination décentralisée des terminaux. 2- dynamique et ouvert : les terminaux, en particulier les terminaux mobiles, peuvent rejoindre et quitter un réseau pervasif à tout moment. Cette ouverture rend l’architecture du système dynamique : c'est-à-dire que la topologie du système évolue au cours du temps pendent l’exécution. Ce caractère dynamique de l'architecture nécessite une modélisation du système très flexible pour décrire les topologies variantes du système. 3 - complexe et de grande taille : l’échelle de ces systèmes peut atteindre des centaines voire des milliers de terminaux. La coordination de ces terminaux qui gère non seulement ces terminaux, mai également leurs connexions est d’un niveau de complexité élevé. Au lieu de solutions traditionnellement centralisées qui gèrent un petit nombre de terminaux, les systèmes pervasifs à grande échelle devraient appliquer une solution plus efficace
In this thesis, we propose: - A three-layer abstract architecture: a three-layer self-protection architecture is applied to the framework. A lower execution space provides running environment for applications, a control plane controls the execution space, and an autonomic plane guides the control behavior of the control plane in taking into account system status, context evolution, administrator strategy and user preferences. - An attribute-based access control model: the proposed model (Generic Attribute-Based Access Control) is an attribute-based access control model which improves both the policy-neutrality to specify other access control policies and exibility to enable fine-grain manipulations on one policy. - A policy-based framework for authorization integrating autonomic computing: the policy-based approach has shown its advantages when handling complex and dynamic systems. In integrating autonomic functions into this approach, an Autonomic Security Policy Framework provides a consistent and decentralized solution to administer G-ABAC policies in large-scale distributed pervasive systems. Moreover, the integration of autonomic functions enhances user-friendliness and context-awareness. - A terminal-side access control enforcement OS: the distributed authorization policies are then enforced by an OS level authorization architecture. It is an effcient OS kernel which controls resource access through a dynamic manner to reduce authorization overhead. On the other hand, this dynamic mechanism improves the integrability of di_erent authorization policies. - An adaptation policy specifcation Domain Speci_c Language (DSL) for adaptation policy specification
APA, Harvard, Vancouver, ISO, and other styles
10

Vo, Dong-Bach. "Conception et évaluation de nouvelles techniques d'interaction dans le contexte de la télévision interactive." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0053/document.

Full text
Abstract:
La télévision n’a cessé de se populariser et d’évoluer en proposant de nouveaux services. Ces services de plus en plus interactifs rendent les téléspectateurs plus engagés dans l’activité télévisuelle. Contrairement à l’usage d’un ordinateur, ils interagissent sur un écran distant avec une télécommande et des applications depuis leur canapé peu propice à l’usage d’un clavier et d’une souris. Ce dispositif et les techniques d’interaction actuelles qui lui sont associées peinent à répondre correctement à leurs attentes. Afin de répondre à cette problématique, les travaux de cette thèse explorent les possibilités offertes par la modalité gestuelle pour concevoir de nouvelles techniques d’interaction pour la télévision interactive en tenant compte de son contexte d’usage. Dans un premier temps, nous présentons le contexte singulier de l’activité télévisuelle. Puis, nous proposons un espace de caractérisation des travaux de la littérature cherchant à améliorer la télécommande pour, finalement, nous focaliser sur l’interaction gestuelle. Nous introduisons un espace de caractérisation qui tente d’unifier l’interaction gestuelle contrainte par une surface, mains libres, et instrumentée ou non afin de guider la conception de nouvelles techniques. Nous avons conçu et évalué diverses techniques d’interaction gestuelle selon deux axes de recherche : les techniques d’interaction gestuelle instrumentées permettant d’améliorer l’expressivité interactionnelle de la télécommande traditionnelle, et les techniques d’interaction gestuelles mains libres en explorant la possibilité de réaliser des gestes sur la surface du ventre pour contrôler sa télévision
Television has never stopped being popularized and offering new services to the viewers. These interactive services make viewers more engaged in television activities. Unlike the use of a computer, they interact on a remote screen with a remote control from their sofa which is not convenient for using a keyboard and a mouse. The remote control and the current interaction techniques associated with it are struggling to meet viewers’ expectations. To address this problem, the work of this thesis explores the possibilities offered by the gestural modality to design new interaction techniques for interactive television, taking into account its context of use. More specifically, in a first step, we present the specific context of the television usage. Then, we propose a litterature review of research trying to improve the remote control. Finally we focus on gestural interaction. To guide the design of interaction techniques based on gestural modality, we introduce a taxonomy that attempts to unify gesture interaction constrained by a surface and hand-free gesture interaction. Therefore, we propose various techniques for gestural interaction in two scopes of research : gestural instrumented interaction techniques, which improves the traditional remote control expressiveness, and hand-free gestural interaction by exploring the possibility o performing gestures on the surface of the belly to control the television set
APA, Harvard, Vancouver, ISO, and other styles
11

Marache-Francisco, Cathie. "Gamification des interactions humain-technologie : représentation, conception et évaluation d’un guide pour la gamification des interfaces." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0365.

Full text
Abstract:
La gamification est le processus conduisant à l’emploi d’éléments de jeux adaptés au profil des utilisateurs dans des systèmes professionnels numériques afin d’accroître leur motivation, leur engagement avec un accent mis sur des interactions agréables voire de l’amusement. Ce concept récent questionne l’ergonomie, a fortiori dans un contexte professionnel. Il y a un besoin de définition, de mise en œuvre, d’évaluation et de réflexion sur ce qui engage l’utilisateur et sur son sens. L'expérience 1 analyse la perception de la gamification chez des concepteurs qui doivent identifier et catégoriser les éléments ludiques d’interfaces. Deux dimensions apparaissent : cosmétique et implicative. L'expérience 2 s’intéresse à la perception de la gamification chez des utilisateurs finaux avec un comparatif système gamifié / non gamifié. Les analyses révèlent que la gamification possède un impact primaire positif et un impact secondaire non désirable. Ensuite, un guide de conception est construit avec une description du processus de conception et une boîte à outils (principes généraux, arbres de décision, grille de conception). Il est validé lors de l’expérience 3 où des sujets doivent gamifier un système avec ou sans le guide. Les résultats indiquent qu’il favorise la fluidité, la flexibilité, l’originalité et l’élaboration. En définitive, ces travaux apportent des précisions conceptuelles et des clés de réflexion autour de l’idéologie de la gamification et des ressorts psychologiques employés pour engager, motiver mais aussi persuader, induire des comportements et contrôler. Pour finir, les suites à donner à ces travaux et l'avenir de la gamification sont abordés
Gamification is the process of using game elements in professional digital systems, elements which are tailored to users’ profiles in order to increase their motivation and commitment with an emphasis on appealing, even amusing, interactions. This digital interface design modality questions ergonomics, especially when applied to professional contexts. Gamification needs to be defined, designed for and evaluated. Furthermore, the mechanism behind user commitment and the meaning of gamification needs to be carefully considered. The first experiment analyzes the perception of gamification by designers. They have to identify the ludic parts of gamification interfaces and then to categorize it. Two dimensions are identified: cosmetic and involvement. The second experiment analyzes the perception of gamification by end users through a comparison between gamified and non gamified versions of an interface. Analyses reveal that gamification has a primary impact, which affects positively the interaction, and an unwanted secondary impact. Then, a design guide is created which consists of a description of the design process and a toolbox (main principles, decision trees, design grid). It is validated through a third experiment: subjects, split into two groups (with / without the guide) are asked to gamify a system. The results show that the guide favors fluidity, flexibility, novelty and details. To conclude, this work provides conceptual details as well as a discussion about the ideological part of gamification and the psychological techniques, which are used to commit and motivate as well as to persuade, change behavior and control. Finally, next steps for research are suggested
APA, Harvard, Vancouver, ISO, and other styles
12

Flavigné, David. "Planification de mouvement interactive : coopération humain-machine pour la recherche de trajectoire et l'animation." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/983/.

Full text
Abstract:
Cette thèse contribue à la problématique de la planification de trajectoire. Dans le but d'améliorer la recherche d'une trajectoire solution nous présentons une variante de l'approche RRT puis une méthode de planification de mouvement intégrant un opérateur humain dans la boucle de recherche afin de trouver un chemin et ensuite d'animer un personnage virtuel. Après une introduction générale, une présentation du problème de la planification de mouvement est faite et les algorithmes existants les plus connus sont présentés dans le second chapitre. Les travaux sur lesquels ce chapitre se base sont présentés plus en détails. Une nouvelle méthode de planification développée pour des environnements spécifiques, orientée vers l'utilisation dans l'animation de personnage, est décrite. Enfin plusieurs tests et une analyse approfondie sont réalisés sur différents environnements et permettent de montrer les avantages de l'approche. Le troisième chapitre introduit une nouvelle méthode de planification interactive, qui fait coopérer un opérateur et un algorithme de planification de mouvement dans une boucle d'interaction. La méthode se base sur un échange de pseudo-forces entre l'utilisateur et l'algorithme à travers une scène virtuelle avec des périphériques interactifs du type souris 3D et bras haptique. Différents exemples permettent d'illustrer l'approche, et un cas emprunté à l'industrie automobile est présenté. Une étude est réalisée et montre l'influence de différents paramètres sur les performances de l'algorithme. Le quatrième chapitre présente une méthode d'animation de personnages interactive et intuitive. En se basant sur des travaux utilisant l'interpolation de captures de mouvements pour animer un personnage et sur la méthode du chapitre précédent, cette méthode introduit un aspect interactif qui permet de créer des trajectoires animées de personnages virtuels en respectant la volonté de l'utilisateur. Plusieurs exemples viennent illustrer cette méthode et en montrer les avantages
This thesis presents a motion planning method that integrates a user input into the planning loop to find a path and animate a virtual character. After a general introduction, a general presentation of the motion planning problem is made and the most known algorithms are presented in the second chapter. Then, two works on which this chapter is based are presented in details. A new motion planning method designed for planning in human environments is described. Several tests and a study are made on different environments and show the advantages of the approach. The third chapter introduces a new interactive motion planning method that allows a human operator and an algorithm to cooperate in a single interaction loop. This method is based on a pseudo-force exchange between the user and the algorithm through a virtual scene using interactive devices such as a space mouse or a haptic arm. Several examples illustrate the approach and an automotive case is presented. A analysis shows the influence of several parameters on the performances. The fourth chapter presents an intuitive and interactive character animation method. Using a previous work based on motion capture interpolation for animation and the previous chapter algorithm, this method introduces interactivity to create animated trajectories for virtual characters that follows the user intentions. Some examples illustrate the method and show the advantages
APA, Harvard, Vancouver, ISO, and other styles
13

Rosso, Juan. "Surfaces malléables pour l'interaction mobile et tangible à distance." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM078/document.

Full text
Abstract:
Les curseurs sont l'un des widgets les plus utilisés pour contrôler les paramètres continus - par exemple, luminosité, volume sonore, température d'une maison intelligente, etc. Sur les téléphones mobiles, les curseurs sont représentés graphiquement, nécessitant l'attention visuelle de l'utilisateur. Ils sont principalement exploités avec un seul pouce. Alors que les curseurs de grande taille offrent de meilleures performances, ils présentent des zones difficiles à atteindre pour le pouce. Cet article explore différentes conceptions de curseurs tangibles pour offrir une interaction sans yeux et efficace avec le pouce. Les nouveaux concepts que nous avons explorés sont basés sur un espace de conception englobant des solutions graphiques et des solutions tangibles inexplorées. Pour évaluer nos conceptions, nous avons construit des prototypes et les avons testés expérimentalement dans trois expériences. Dans notre première expérience, nous avons analysé l'impact sur la performance de la longueur du curseur tangible: soit dans la zone confortable du pouce ou non. Dans notre deuxième expérience, nous avons analysé la performance d'un design tangible extensible qui permet un fonctionnement dans la zone confortable du pouce. Dans notre troisième expérience, nous avons analysé la performance d'un design tangible bimodal déformable qui permet un fonctionnement dans la zone confortable du pouce, et au-delà de cette zone, avec l'index sur le dos de l'appareil. Ce travail contribue à la littérature en: premièrement, en fournissant un espace de conception pour une interaction à une main avec des éléments tangibles déformables. Deuxièmement, analyser l'impact sur la performance lors de la manipulation de curseurs tangibles en dehors de la zone confortable du pouce. Et troisièmement, analyser l'impact de la déformation lors de la manipulation
Sliders are one of the most used widgets to control continuous parameters - e.g., brightness, sound volume, the temperature of a smart house, etc. On mobile phones, sliders are represented graphically, requiring the user's visual attention. They are mostly operated with a single thumb. While large sliders offer better performance, they present areas difficult for the thumb to reach. This article explores different tangible slider designs to offer eyes-free and efficient interaction with the thumb. The novel designs that we explored are based on a design space encompassing graphical solutions and the unexplored tangible solutions. To evaluate our designs, we built prototypes and experimentally tested them in three experiments. In our first experiment, we analyzed the impact on the performance of the tangible slider's length: either within the thumb's comfortable area or not. In our second experiment, we analyzed the performance of an extensible tangible design that allows operation within the comfortable area of the thumb. In our third experiment, we analyzed the performance of a bi-modal deformable tangible design that allows operation within the comfortable area of the thumb, and beyond this area, with the index finger on the back of the device. This work contributes to the literature by: first, providing a design space for one-handed interaction with deformable tangible elements. Second, analyzing the impact on performance when manipulating tangible sliders outside the thumb's comfortable area. And third, analyzing the impact that deformation has during manipulation
APA, Harvard, Vancouver, ISO, and other styles
14

Vo, Dong-Bach. "Conception et évaluation de nouvelles techniques d'interaction dans le contexte de la télévision interactive." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0053.

Full text
Abstract:
La télévision n’a cessé de se populariser et d’évoluer en proposant de nouveaux services. Ces services de plus en plus interactifs rendent les téléspectateurs plus engagés dans l’activité télévisuelle. Contrairement à l’usage d’un ordinateur, ils interagissent sur un écran distant avec une télécommande et des applications depuis leur canapé peu propice à l’usage d’un clavier et d’une souris. Ce dispositif et les techniques d’interaction actuelles qui lui sont associées peinent à répondre correctement à leurs attentes. Afin de répondre à cette problématique, les travaux de cette thèse explorent les possibilités offertes par la modalité gestuelle pour concevoir de nouvelles techniques d’interaction pour la télévision interactive en tenant compte de son contexte d’usage. Dans un premier temps, nous présentons le contexte singulier de l’activité télévisuelle. Puis, nous proposons un espace de caractérisation des travaux de la littérature cherchant à améliorer la télécommande pour, finalement, nous focaliser sur l’interaction gestuelle. Nous introduisons un espace de caractérisation qui tente d’unifier l’interaction gestuelle contrainte par une surface, mains libres, et instrumentée ou non afin de guider la conception de nouvelles techniques. Nous avons conçu et évalué diverses techniques d’interaction gestuelle selon deux axes de recherche : les techniques d’interaction gestuelle instrumentées permettant d’améliorer l’expressivité interactionnelle de la télécommande traditionnelle, et les techniques d’interaction gestuelles mains libres en explorant la possibilité de réaliser des gestes sur la surface du ventre pour contrôler sa télévision
Television has never stopped being popularized and offering new services to the viewers. These interactive services make viewers more engaged in television activities. Unlike the use of a computer, they interact on a remote screen with a remote control from their sofa which is not convenient for using a keyboard and a mouse. The remote control and the current interaction techniques associated with it are struggling to meet viewers’ expectations. To address this problem, the work of this thesis explores the possibilities offered by the gestural modality to design new interaction techniques for interactive television, taking into account its context of use. More specifically, in a first step, we present the specific context of the television usage. Then, we propose a litterature review of research trying to improve the remote control. Finally we focus on gestural interaction. To guide the design of interaction techniques based on gestural modality, we introduce a taxonomy that attempts to unify gesture interaction constrained by a surface and hand-free gesture interaction. Therefore, we propose various techniques for gestural interaction in two scopes of research : gestural instrumented interaction techniques, which improves the traditional remote control expressiveness, and hand-free gestural interaction by exploring the possibility o performing gestures on the surface of the belly to control the television set
APA, Harvard, Vancouver, ISO, and other styles
15

Fekete, Jean-Daniel. "Nouvelle génération d'Interfaces Homme-Machine pour mieux agir et mieux comprendre." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00876183.

Full text
Abstract:
Depuis une dizaine d'années, l'interaction Homme-Machine (IHM) subit une mutation importante liée en particulier à la diversification des supports et des usages ainsi qu'au changement d'échelle des données qui transitent ou résident sur nos ordinateurs. Cette diversité est aujourd'hui une grande source de difficultés pour la recherche et pour l'industrie. Les modèles architecturaux et les outils de conception et de réalisation de systèmes interactifs n'arrivent plus à la gérer convenablement. La quantité de données qui transitent sur nos ordinateurs et que nous manipulons, a augmenté de manière exponentielle depuis dix ans. Face à cette mutation, le domaine de l'interaction Homme-Machine a été jusqu'à présent en retard. Les systèmes d'exploitation commencent à proposer des mécanismes d'indexation automatique qui facilitent la recherche. Nous arguons que cela ne remplace pas une vue d'ensemble et une structuration des données. Trouver rapidement une information est utile, mais savoir comment cette information est organisée permet de comprendre, et cette compréhension est une arme importante pour manipuler et gérer des masses de données. Pour comprendre, il faut une vue d'ensemble - une structure visible et compréhensible - et c'est ce que nous voulons fournir à l'aide de la visualisation d'information. Nous présentons nos travaux dans ces domaines : une vision unifiée de l'architecture logicielle des systèmes interactifs pour faciliter la construction d'applications graphiques hautement interactives et profondément adaptables; des nouvelles techniques de visualisation et d'interaction, mais aussi des méthodes permettant de faire évoluer le domaine de la visualisation de manière plus rigoureuse.
APA, Harvard, Vancouver, ISO, and other styles
16

Bouzekri, Elodie. "Notation et processus outillé pour la description, l'analyse et la compréhension de l'automatisation dans les systèmes de commande et contrôle." Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30003.

Full text
Abstract:
L'automatisation permet à certains systèmes d'exécuter des fonctions sans contrôle extérieur et d'adapter les fonctions qu'ils exécutent à de nouveaux contextes ou buts. Les systèmes contenant de l'automatisation sont de plus en plus utilisés, autant pour aider les humains dans les tâches du quotidien, avec, par exemple, le lave-vaisselle, que dans leur vie professionnelle, par exemple pour un pilote d'avion, le cockpit. Dans le domaine de l'aéronautique, l'automatisation a permis de progressivement réduire le nombre de 4 pilotes à 2 pilotes. L'automatisation a d'abord été considérée comme un moyen d'augmenter les performances et réduire l'effort en migrant des tâches précédemment allouées aux humains à des systèmes. Ceci, dans l'hypothèse où les systèmes seraient meilleurs que les humains pour réaliser certaines tâches et vice-versa. Le MABA-MABA (Machine Are Better At - Man Are Better At) de Paul Fitts est une proposition de méthode d'allocation de tâches et de fonctions reprenant cette hypothèse. Dans la continuité de cette hypothèse, différentes descriptions de niveaux d'automatisation ont été proposées. Les 10 niveaux d'automatisation de Parasuraman, Sheridan et Wickens décrivent différentes allocations de tâches et de fonctions entre l'humain et le système. Plus le niveau d'automatisation augmente, plus le nombre de tâches migrées de l'humain vers le système est important. Ces approches ont fait l'objet de critiques, notamment à travers " MABA-MABA or Abracadabra? Progress on Human-Automation Coordination " de Dekker et Woods qui soulignent que l'introduction de l'automatisation induit de nouvelles tâches allouées à l'humain pour gérer cette automatisation. Ils rappellent aussi que ces approches masquent l'aspect coopératif du couple humain-système contenant de l'automatisation. Dans le but de caractériser cette coopération humain-système, il a été montré qu'il est important de considérer, lors de la phase de conception, l'allocation de l'autorité, de la responsabilité, du contrôle et de l'initiative de modifications de ces allocations lors de l'activité. Cependant dans les approches existantes, la conception de l'automatisation et de la coopération avec l'humain est considérée à haut niveau en amont dans le cycle de conception et de développement du système. Ces travaux ne fournissent pas de support pour raisonner sur l'allocation des ressources, des transitions de contrôle, de la responsabilité et de l'autorité tout au long du cycle de conception et de développement du système. L'objectif de cette thèse est de démontrer qu'il est possible d'analyser et de décrire à bas niveau les tâches et les fonctions ainsi que la coopération entre l'humain et le système contenant de l'automatisation. Cette analyse et cette description permet de caractériser les tâches, les fonctions et la coopération en terme d'autorité, de responsabilité, de partage de ressources et d'initiation de transition de contrôle. Cela, dans l'objectif de fournir un cadre conceptuel et un processus outillé à base de modèles pour l'analyse structurée et la compréhension de l'automatisation. Afin de montrer la faisabilité de cette approche, cette thèse présente les résultats de son application à une étude de cas industrielle dans le domaine d'application de l'aéronautique
Automation enables systems to execute some functions without outside control and to adapt functions they execute to new contexts and goals. Systems with automation are used more and more to help humans in everyday tasks with, for example, the dishwasher. Systems with automation are also used to help humans in their professional life. For example, in the field of aeronautics, automation has gradually reduced the number from 4 pilots to 2 pilots. Automation was first considered as a way to increase performance and reduce effort by migrating tasks previously allocated to humans to systems. This, in the hypothesis that systems would be better than humans would at performing certain tasks and vice-versa. Paul Fitts proposed MABA-MABA (Machine Are Better At - Man Are Better At), a tasks and functions allocation method based on this hypothesis. In line with this hypothesis, various descriptions of levels of automation have been proposed. The 10 levels of Automation (LoA) by Parasuraman, Sheridan et Wickens describe different tasks and functions allocations between the human and the system. The higher the level of automation, the more tasks migrate from human to system. These approaches have been the subject of criticism. " MABA-MABA or Abracadabra? Progress on Human-Automation Coordination " of Dekker and Woods highlights that automation leads to new tasks allocated to humans to manage this automation. Moreover, they recall that these approaches hide the cooperative aspect of the human-system couple. To characterize the human-system cooperation, the importance of considering, at design time, the allocation of authority, responsibility, control and the initiative to modify these allocations during the activity was demonstrated. However, the existing approaches describe a high-level design of automation and cooperation early in the design and development process. These approaches do not provide support for reasoning about the allocation of resources, control transitions, responsibility and authority throughout the design and development process. The purpose of this thesis is to demonstrate the possibility to analyze and describe at a low-level tasks and functions as well as the cooperation between humans and the system with automation. This analysis and this description enable to characterize tasks, functions and the cooperation in terms of authority, responsibility, resource sharing and control transition initiation. The aim of this work is to provide a framework and a model-based and tool supported process to analyze and understand automation. In order to show the feasibility of this approach, this thesis presents the results of the application of the proposed process to an industrial case study in the field of aeronautics
APA, Harvard, Vancouver, ISO, and other styles
17

George, Sébastien. "Interactions et communications contextuelles dans les environnements informatiques pour l'apprentissage humain." Habilitation à diriger des recherches, INSA de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00557182.

Full text
Abstract:
L'objet principal de nos recherches est la prise en compte du contexte dans les Environnements Informatiques pour l'Apprentissage Humain (EIAH). Les problématiques traitées concernent la création de modèles considérant le contexte des apprenants et des enseignants pour faciliter leurs communications et le partage d'informations, ainsi que la conception de situations informatisées favorisant des apprentissages par des mises en contexte. Notre activité s'est organisée autour de projets de recherche ayant pour préoccupation d'améliorer la formation en ligne et les learning games. Dans le cadre de la formation en ligne, les contributions majeures se situent au niveau de la conception et l'expérimentation de modèles pour inciter et soutenir des communications contextuelles, c'est à dire liant des messages à des éléments de contexte (ressources, connaissances, activités d'apprentissage ou d'enseignement). Dans le cadre des learning games, les contributions principales concernent la définition d'un processus de création de jeux d'entreprise et son instrumentation informatique intégrant des contrôles qualité. Nous adoptons une démarche de recherche qui place l'utilisateur, ses activités et ses besoins au centre des préoccupations. La méthode globale de conception de nos systèmes peut être qualifiée d'itérative et de participative. Une attention particulière est portée sur la construction des interactions homme-machine qui doivent refléter les modèles et concepts sous-jacents.
APA, Harvard, Vancouver, ISO, and other styles
18

Grizou, Jonathan. "Apprentissage simultané d'une tâche nouvelle et de l'interprétation de signaux sociaux d'un humain en robotique." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0146/document.

Full text
Abstract:
Cette thèse s'intéresse à un problème logique dont les enjeux théoriques et pratiques sont multiples. De manière simple, il peut être présenté ainsi : imaginez que vous êtes dans un labyrinthe, dont vous connaissez toutes les routes menant à chacune des portes de sortie. Derrière l'une de ces portes se trouve un trésor, mais vous n'avez le droit d'ouvrir qu'une seule porte. Un vieil homme habitant le labyrinthe connaît la bonne sortie et se propose alors de vous aider à l'identifier. Pour cela, il vous indiquera la direction à prendre à chaque intersection. Malheureusement, cet homme ne parle pas votre langue, et les mots qu'il utilise pour dire ``droite'' ou ``gauche'' vous sont inconnus. Est-il possible de trouver le trésor et de comprendre l'association entre les mots du vieil homme et leurs significations ? Ce problème, bien qu'en apparence abstrait, est relié à des problématiques concrètes dans le domaine de l'interaction homme-machine. Remplaçons le vieil homme par un utilisateur souhaitant guider un robot vers une sortie spécifique du labyrinthe. Ce robot ne sait pas en avance quelle est la bonne sortie mais il sait où se trouvent chacune des portes et comment s'y rendre. Imaginons maintenant que ce robot ne comprenne pas a priori le langage de l'humain; en effet, il est très difficile de construire un robot à même de comprendre parfaitement chaque langue, accent et préférence de chacun. Il faudra alors que le robot apprenne l'association entre les mots de l'utilisateur et leur sens, tout en réalisant la tâche que l'humain lui indique (i.e.trouver la bonne porte). Une autre façon de décrire ce problème est de parler d'auto-calibration. En effet, le résoudre reviendrait à créer des interfaces ne nécessitant pas de phase de calibration car la machine pourrait s'adapter,automatiquement et pendant l'interaction, à différentes personnes qui ne parlent pas la même langue ou qui n'utilisent pas les mêmes mots pour dire la même chose. Cela veut aussi dire qu'il serait facile de considérer d’autres modalités d'interaction (par exemple des gestes, des expressions faciales ou des ondes cérébrales). Dans cette thèse, nous présentons une solution à ce problème. Nous appliquons nos algorithmes à deux exemples typiques de l'interaction homme robot et de l'interaction cerveau machine: une tâche d'organisation d'une série d'objets selon les préférences de l'utilisateur qui guide le robot par la voix, et une tâche de déplacement sur une grille guidé par les signaux cérébraux de l'utilisateur. Ces dernières expériences ont été faites avec des utilisateurs réels. Nos résultats démontrent expérimentalement que notre approche est fonctionnelle et permet une utilisation pratique d’une interface sans calibration préalable
This thesis investigates how a machine can be taught a new task from unlabeled humaninstructions, which is without knowing beforehand how to associate the human communicative signals withtheir meanings. The theoretical and empirical work presented in this thesis provides means to createcalibration free interactive systems, which allow humans to interact with machines, from scratch, using theirown preferred teaching signals. It therefore removes the need for an expert to tune the system for eachspecific user, which constitutes an important step towards flexible personalized teaching interfaces, a key forthe future of personal robotics.Our approach assumes the robot has access to a limited set of task hypotheses, which include the task theuser wants to solve. Our method consists of generating interpretation hypotheses of the teaching signalswith respect to each hypothetic task. By building a set of hypothetic interpretation, i.e. a set of signallabelpairs for each task, the task the user wants to solve is the one that explains better the history of interaction.We consider different scenarios, including a pick and place robotics experiment with speech as the modalityof interaction, and a navigation task in a brain computer interaction scenario. In these scenarios, a teacherinstructs a robot to perform a new task using initially unclassified signals, whose associated meaning can bea feedback (correct/incorrect) or a guidance (go left, right, up, ...). Our results show that a) it is possible tolearn the meaning of unlabeled and noisy teaching signals, as well as a new task at the same time, and b) itis possible to reuse the acquired knowledge about the teaching signals for learning new tasks faster. Wefurther introduce a planning strategy that exploits uncertainty from the task and the signals' meanings toallow more efficient learning sessions. We present a study where several real human subjects controlsuccessfully a virtual device using their brain and without relying on a calibration phase. Our system identifies, from scratch, the target intended by the user as well as the decoder of brain signals.Based on this work, but from another perspective, we introduce a new experimental setup to study howhumans behave in asymmetric collaborative tasks. In this setup, two humans have to collaborate to solve atask but the channels of communication they can use are constrained and force them to invent and agree ona shared interaction protocol in order to solve the task. These constraints allow analyzing how acommunication protocol is progressively established through the interplay and history of individual actions
APA, Harvard, Vancouver, ISO, and other styles
19

Flavigne, David. "Planification de mouvement interactive: coopération humain-machine pour la recherche de trajectoire et l'animation." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00538807.

Full text
Abstract:
Cette thèse contribue à la problématique de la planification de trajectoire. Dans le but d'améliorer la recherche d'une trajectoire solution nous présentons une variante de l'approche RRT puis une méthode de planification de mouvement intégrant un opérateur humain dans la boucle de recherche afin de trouver un chemin et ensuite d'animer un personnage virtuel. Après une introduction générale, une présentation du problème de la planification de mouvement est faite et les algorithmes existants les plus connus sont présentés dans le second chapitre. Les travaux sur lesquels ce chapitre se base sont présentés plus en détails. Une nouvelle méthode de planification développée pour des environnements spécifiques, orientée vers l'utilisation dans l'animation de personnage, est décrite. Enfin plusieurs tests et une analyse approfondie sont réalisés sur différents environnements et permettent de montrer les avantages de l'approche. Le troisième chapitre introduit une nouvelle méthode de planification interactive, qui fait coopérer un opérateur et un algorithme de planification de mouvement dans une boucle d'interaction. La méthode se base sur un échange de pseudo-forces entre l'utilisateur et l'algorithme à travers une scène virtuelle avec des périphériques interactifs du type souris 3D et bras haptique. Différents exemples permettent d'illustrer l'approche, et un cas emprunté à l'industrie automobile est présenté. Une étude est réalisée et montre l'influence de différents paramètres sur les performances de l'algorithme. Le quatrième chapitre présente une méthode d'animation de personnages interactive et intuitive. En se basant sur des travaux utilisant l'interpolation de captures de mouvements pour animer un personnage et sur la méthode du chapitre précédent, cette méthode introduit un aspect interactif qui permet de créer des trajectoires animées de personnages virtuels en respectant la volonté de l'utilisateur. Plusieurs exemples viennent illustrer cette méthode et en montr er les avantages.
APA, Harvard, Vancouver, ISO, and other styles
20

Hoarau, Raphaël. "Interaction et visualisation avec des liens de dépendances." Phd thesis, Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2776/.

Full text
Abstract:
De nombreux outils interactifs permettent de manipuler efficacement des objets individuellement en appliquant notamment les principes de la manipulation directe. Les interactions avec de multiples objets quant à elles n'ont été que peu étudiées. Notre thèse est qu'il est important de concevoir des interactions permettant la manipulation synchrone d'objets multiples qui soient efficaces, tout en favorisant la conception exploratoire. A partir d'enquêtes menées en contexte, nous décrivons une analyse de besoins ayant permis d'établir un ensemble d'exigences relatives aux interactions sur les ensembles. Nous présentons quatre outils interactifs qui illustrent des concepts d'interaction sur des structures : les liens de délégation, qui s'inspirent du mécanisme de délégation des langages à prototypes en permettant d'établir explicitement des dépendances entre objets (et de créer des clones) et d'étendre la portée des interactions en les propageant ; ManySpector, un nouveau type d'inspecteur de propriétés qui révèle une structuration implicite d'une scène et qui permet de construire, par des interactions instrumentales, des requêtes graphiques et de sélection ; IHR, un outil pouvant créer automatiquement une hiérarchie de propriétés déléguées ; et Histoglass, une lentille déplaçable qui permet de réutiliser localement les propriétés et les actions passées de l'utilisateur. Nous présentons par ailleurs les résultats d'évaluations menées auprès d'utilisateurs afin de mesurer l'intérêt des concepts apportés par les outils conçus. L'ensemble de ce travail nous a conduit à l'ébauche d'un nouveau paradigme d'interaction : " l'interaction structurelle ", qui étend les paradigmes de la manipulation directe et de l'interaction instrumentale
Although many interactive tools allows manipulating effectively objects individually by applying principles such as direct manipulation, interaction with multiple objects have been little studied so far. Our thesis is that it is important to design interactions for the synchronous operation of multiple objects that are efficient, while fostering exploratory design. From contextual inquiries, we describe an analysis of needs which established a set of requirements for interactions on sets. We present four interactive tools to illustrate concepts of interaction with structures: links delegation, which are based on the delegation mechanism in prototype languages, allowing to establish dependencies between objects (and create clones) and extend the scope of interactions by propagating them; ManySpector, a new type of property inspector that reveals an implicit structuring of a scene and allows for building, with instrumental interactions, graphical query and selection; IHR, a tool that can automatically create a hierarchy of delegated properties; and Histoglass a movable lens that allows to locally manipulate the properties and past user actions. We also present the results of evaluations conducted with users in order to measure interest in the concepts provided by the tools developed. All of this work has led us to the draft of a new interaction paradigm, "the structural interaction", which extends the paradigms of direct manipulation and instrumental interaction
APA, Harvard, Vancouver, ISO, and other styles
21

Bouyer, Antoine. "Plateformes et services multimodaux basés sur des interfaces plastiques." Caen, 2010. http://www.theses.fr/2010CAEN2048.

Full text
Abstract:
Cette thèse est à la jointure de deux domaines que sont la multimodalité et la plasticité des interfaces. La multimodalité consiste à pouvoir accéder à un système simultanément au travers de diff´erents modes de communication. La mise en place de telles infrastructures est r´eputée être difficile à cause de la diversité, technique comme fonctionnelle, des périphériques pouvant s’y connecter. Tout autrement, la plasticité consiste à d´efinir de manière abstraite une seule interface qui sera ensuite transformée vers différents formats, en fonctions de critères prédéfinis. Même si ces deux domaines ont été très étudiés par le passé, personne n’a pour l’instant utilisé la plasticité pour faciliter la conception et le développement de services multimodaux. Le travail r´ealisé durant cette thèse a étébde réfléchir, concevoir et mettre en place une telle plateforme. Cette thèse se décompose en trois parties. La première partie d´ecrit l’existant au d´ebut de la thèse. Nous retraçons en particulier l’´etat de l’art des deux domaines que nous utilisons par la suite. Nous évoquons aussi l’architecture de la plateforme PMX précédemment d´eveloppée et dont nous réutilisons certains de ces concepts. La seconde partie traite de la r´eflexion menée tout au long de nos travaux, et qui nous a amené à développer successivement deux plateformes multimodales. Nous expliquons en d´etails les raisons et les enjeux nous ayant poussés à effectuer des améliorations de l’existant. La dernière partie présente la validation et la concrétisation de nos travaux au travers des différents services mis en place et expérimentés, ainsi que des débouchés industriels actuellement en cours de transfert
This thesis brings together two research domains, namely multimodality and plasticity of interfaces. Multimodality allows for the accessing of a system simultaneously through different modes of communication. The realization of such infrastructure is difficult because of the technical and functional diversity of the devices that may be connected. Plasticity defines abstract interfaces that are then converted to different formats. Although these two domains have been studied extensively in the past, no one has, to date, used plasticity to facilitate the design and the development of multimodal services. The work carried out during this thesis was to think through, design, and implement such a platform. This thesis is divided into three parts. The first part describes the existing technology at the beginning of the thesis period. More precisely, we present the state of the art of the two domains. We also discuss the architecture of the PMX platform previously developed and from which we reuse some concepts. The second part deals with our reasoning throughout this study. We have developed two successive multimodal platforms, and we explain in detail the reasons and the issues that have pushed us to improve upon the existing technology. The final section presents the validation and implementation of our work through the different services we have developed and experimented. The market opportunities currently being transferred are also presented
APA, Harvard, Vancouver, ISO, and other styles
22

Hoarau, Raphaël. "Interaction et Visualisation avec des liens de dépendances." Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00976601.

Full text
Abstract:
De nombreux outils interactifs permettent de manipuler efficacement des objets individuellement en appliquant notamment les principes de la manipulation directe. Les interactions avec de multiples objets quant à elles n'ont été que peu étudiées. Notre thèse est qu'il est important de concevoir des interactions permettant la manipulation synchrone d'objets multiples qui soient efficaces, tout en favorisant la conception exploratoire. A partir d'enquêtes menées en contexte, nous décrivons une analyse de besoins ayant permis d'établir un ensemble d'exigences relatives aux interactions sur les ensembles. Nous présentons quatre outils interactifs qui illustrent des concepts d'interaction sur des structures : les liens de délégation, qui s'inspirent du mécanisme de délégation des langages à prototypes en permettant d'établir explicitement des dépendances entre objets (et de créer des clones) et d'étendre la portée des interactions en les propageant ; ManySpector, un nouveau type d'inspecteur de propriétés qui révèle une structuration implicite d'une scène et qui permet de construire, par des interactions instrumentales, des requêtes graphiques et de sélection ; IHR, un outil pouvant créer automatiquement une hiérarchie de propriétés déléguées ; et Histoglass, une lentille déplaçable qui permet de réutiliser localement les propriétés et les actions passées de l'utilisateur. Nous présentons par ailleurs les résultats d'évaluations menées auprès d'utilisateurs afin de mesurer l'intérêt des concepts apportés par les outils conçus. L'ensemble de ce travail nous a conduit à l'ébauche d'un nouveau paradigme d'interaction : " l'interaction structurelle ", qui étend les paradigmes de la manipulation directe et de l'interaction instrumentale.
APA, Harvard, Vancouver, ISO, and other styles
23

Rodriguez, Bertha Helena. "Modèle SOA sémantique pour la multimodalité et son support pour la découverte et l'enregistrement de services d'assistance." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0006/document.

Full text
Abstract:
Les entrées et sorties unimodales dans les systèmes actuels ont atteint une maturité reconnue, avec les applications tactiles ou par les services distribués pour la géo-localisation ou la reconnaissance de la parole, du son ou l’'image. Cependant, l'intégration et l’instanciation de toutes ces modalités, manque d’une gestion intelligente du contexte d’acquisition et de restitution basée sur des notions fortement formalisées mais reflétant le sens commun. Ceci demande un comportement plus dynamique du système avec une approche plus adéquate pour gérer l'environnement de l'utilisateur. Cependant,la technologie nécessaire pour atteindre un tel objectif n’est pas encore disponible de façon standardisée, tant au niveau des descriptions fonctionnelles des services unimodaux que de leur description sémantique. Ceci est aussi le cas pour les architectures multimodales, où la composante sémantique est produite par chaque projet sans un accord commun pour assurer l’interoperabilité et est souvent limitée au traitement des entrées et sorties ou aux processus de fusion/fission strictement nécessaires au projet.Pour combler cette lacune, nous proposons une approche sémantique orientée services pour une architecture multimodale générique qui vise à améliorer la description et la découverte des composants de modalité pour les services d'assistance: l'architecture SOA2m. Cette architecture se veut entièrement focalisée sur la multimodalité et enrichie avec des technologies sémantiques car nous croyons que cette orientation permettra d'enrichir le comportement autonome des applications multimodales, avoir une perception robuste des échanges, et contrôler l'intégration sémantique
Unimodal inputs and outputs in current systems have become very mature with touch applications or distributed services for geo-localization or speech, audio and image recognition. However, the integration and instantiation of all these modalities, lack of an intelligent management of the acquisition and restitution context, based on highly formalized notions reflecting common sense. This requires a more dynamic behavior of the system with a more appropriate approach to manage the user environment.However, the technology required to achieve such a goal is not yet available in a standardized manner, both in terms of the functional description of unimodal services and in terms of their semantic description. This is also the case for multimodal architectures, where the semantic management is produced by each project without a common agreement in the field to ensure inter-operability, and it is often limited to the processing of inputs and outputs or fusion / fission mechanisms. To fill this gap, we propose a semantic service-oriented generic architecture for multimodal systems. This proposal aims to improve the description and the discovery of modality components for assistance services: this is the architecture SOA2m. This architecture is fully focused on multimodality and it is enriched with semantic technologies because we believe that this approach will enhance the autonomous behavior of multimodal applications, provide a robust perception of the user-system exchanges, and help in the control of the semantic integration of the human-computer interaction.As a result, the challenge of discovery is addressed using the tools provided by the field of the semantic web services
APA, Harvard, Vancouver, ISO, and other styles
24

Hurter, Christophe. "Caractérisation de visualisations et exploration interactive de grandes quantités de données multidimensionnelles." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00610623.

Full text
Abstract:
Un grand nombre d'activités utilise des outils informatisés s'appuyant sur des représentations graphiques interactives. En tant que vecteurs de transmission d'informations, ces visualisations visent à optimiser la bande passante entre le visuel et l'utilisateur. Pour créer des visualisations efficaces, les concepteurs utilisent des méthodes basées sur leur expertise et sur des tests utilisateurs. Ces méthodes altèrent le processus de design : elles sont chronophages et ne reposent pas sur des fondements théoriques précis qui pourraient éviter des erreurs de conception en amont. Afin de mieux étudier les visualisations, nous proposons de les caractériser, c'est-à-dire d'en énumérer et d'en définir systématiquement les propriétés, tout en explicitant les phénomènes visuels qui engendrent la transmission d'informations. La thèse que nous soutenons consiste à dire que la caractérisation des visualisations est importante pour leurs conceptions, et que son opérationnalisation par des méthodes et des outils permet de concevoir de meilleurs systèmes interactifs. Ainsi, nous avons déterminé qu'une caractérisation est composée de deux éléments : son contenu et sa mise en forme. Nous montrons que le modèle de Data Flow, modèle usuel permettant la description de la construction de visualisations, ne permet pas de les caractériser. Nous proposons d'autres modèles qui permettent de caractériser l'aspect dynamique, les informations émergentes (et notamment celles issues des visualisations dites "écologiques"), ainsi que l'accumulation graphique. En utilisant des visualisations issues du milieu du transport aérien, nous montrons comment la caractérisation permet de comprendre leurs similitudes et leurs différences, de lever les ambiguïtés de communication entre concepteurs, et de concevoir, par exemple, une nouvelle visualisation schématique de routes aériennes. Enfin, nous avons réifié le processus de transformation d'un ensemble de données vers une visualisation sous la forme d'un logiciel d'exploration et de visualisation de grandes quantités de données multidimensionnelles : From Data To Display (FromDaDy). Ce logiciel s'appuie notamment sur l'exploration des configurations visuelles, et sur un ensemble d'interactions originales avec une implémentation performante. FromDady permet de configurer et de manipuler en temps réel des visualisations riches et originales, comme celles utilisant l'accumulation.
APA, Harvard, Vancouver, ISO, and other styles
25

Velo, Jérôme. "Interactions entre un utilisateur et un système informatique : application à un système d'e-administration." Rouen, 2009. http://www.theses.fr/2009ROUES056.

Full text
Abstract:
Dans ce mémoire de thèse, nous présentons un système de médiation permettant une interopérabilité entre données hétérogènes tant par leur nature que par leur source. Le but de ce système est de permettre des interactions entre utilisateur et système informatique dédié à une plate-forme d'e-administration à Madagascar. Après un état des lieux des possibilités d'accès au numérique en comparaison avec trois autres pays africains (l'Afrique du Sud, le Sénégal et le Cap-Vert), nous détaillerons l'architecture orientée services dans laquelle nous avons implémenté un modèle interactif MVC pour la construction d'un prototype de plate-forme bénéficiant d'une technologie Java EE. Les choix informatiques sont validés par des expérimentations monopostes. Il restera à tester en vraie grandeur l'outil d'interaction que nous avons adapté aux réalités du terrain malgache tant d'un point de vue technique que d'un point de vue social et économique
We present here a mediation system allowing interworkability between heterogeneous data as well by their nature as by their source. The purpose of this system is to enable interactions between a user and a computerized system dedicated to a platform of e-administration in Madagascar. After a state of art concrning possibilities of access to numerical devices in comparison with three other African countries (South-Africa, Senegal and Cap Verde), we will describe the SOA method with which we have implemented an interactive MVC model for a prototype platform building benefiting from a Java EE. The computing choices are validated by single-post experiments. The tool of interaction xhich we adapted to the Malagasy realities will remain to be tested at a full-scale, not only from a technical point of view, but also from a social and economic point of view
APA, Harvard, Vancouver, ISO, and other styles
26

Mazuel, Laurent. "Traitement de l'hétérogénéité sémantique dans les interactions humain-agent et agent-agent." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00413004.

Full text
Abstract:
Le thème général de cette thèse est le traitement de l'hétérogénéité sémantique dans les interactions humain-agent et agent-agent. Plus précisément, nous étudions le cas où un agent informatique muni d'un modèle de représentation de ses connaissances doit traiter des demandes envoyées par d'autres interlocuteurs, qu'il s'agisse d'utilisateurs humains ou d'agents informatiques.
La plupart des approches segmentent ce traitement en fonction de l'émetteur de la demande (humain ou agent). Nous pensons au contraire qu'il est possible de proposer un modèle d'interaction commun aux deux situations. Ainsi, nous présentons d'abord un algorithme d'interprétation sémantique de la commande indépendant du type d'interaction (humain-agent ou agent-agent). Cet algorithme considère le rapport entre « ce qui est compris » de la commande et « ce qui est possible » pour la machine. Ce rapport intervient dans un système de sélection de réponses basé sur une mesure de degré de relation sémantique. Nous proposons ensuite une telle mesure, conçue pour prendre en compte plus d'informations que la plupart des mesures actuelles.
Nous étudions ensuite les implémentations que nous avons faites dans les cadres humain-agent et agent-agent. Pour l'implémentation humain-agent, l'une des spécificités est l'utilisation d'une langue naturelle, impliquant le besoin d'utiliser des outils de modélisation de la langue. Pour l'implémentation agent-agent, nous proposerons une adaptation de notre architecture, en s'appuyant sur des protocoles d'interactions entre agents.
APA, Harvard, Vancouver, ISO, and other styles
27

Nemery, Alexandra. "Elaboration, validation et application de la grille de critères de persuasion interactive." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0372.

Full text
Abstract:
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, elle fait partie intégrante de l?expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée à ce besoin. Suite à la revue de cent soixante-quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place auprès de 30 experts en ergonomie. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle
Interface designer have a constant need to influence users. In any field, interfaces are more and more smart, adaptive and interactive in order to encourage people to change. If ergonomic inspection and usability has long been considered to be a part of the evaluation phase or product design process, persuasive technology has not yet been taken into account. Faced with the lack of validated tool in this area, a set of criteria was elaborated. Following the review of 164 articles on the captology field, a grid of eight criteria was proposed. Following various pre-test and its stabilization, this list of criteria was tested with 30 experts in ergonomics to proceed to its validation. Experience-based identification task called persuasive elements in interfaces; 15 have been chosen. The use of the grid showed that it helped the experts identify 78.8% of persuasive elements. With a Kappa score of 0.76, a strong inter-judges agreement has been demonstrated. Following this validation in the laboratory, a real experience test to prove its effectiveness in the field has also been conducted. Applied in the context of an online survey company, annual use of the criteria increased the number of respondents from 25% to 41% in a population of 897 employees. Finally, intelligence has specific features to the world of professional software
APA, Harvard, Vancouver, ISO, and other styles
28

Cronel, Martin. "Une approche pour l'ingénierie des systèmes interactifs critiques multimodaux et multi-utilisateurs : application à la prochaine génération de cockpit d'aéronefs." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30247/document.

Full text
Abstract:
Nos travaux contribuent au domaine de l'ingénierie des systèmes interactifs multimodaux critiques. Ils facilitent l'introduction de nouveaux périphériques (comme les tablettes multi-touch, les systèmes de reconnaissance de geste...) permettant l'interaction multimodale et multi-utilisateurs au sein des futurs cockpits. Pour le moment, les méthodes et les techniques de description des IHM (Interactions Homme Machine) existantes pour la conception des cockpits ne permettent pas de prendre en compte la complexité des techniques d'interaction multimodales. De leur côté, les méthodes de conception d'IHM grand public sont incompatibles avec les exigences de fiabilité et de certification nécessaires aux systèmes critiques. Les travaux proposent un modèle d'architecture logicielle et matérielle MIODMIT (Multiple Input Output devices Multiple Interaction Techniques) qui vise l'intégration de périphériques permettant l'usage de multimodalité au sein de systèmes critiques. Ce modèle décrit précisément les rôles de chacun des composants ainsi que les relations qu'ils entretiennent. Il couvre l'ensemble du spectre du système interactif multimodal qui va des périphériques d'entrée et leurs pilotes, vers les techniques d'interaction et l'application interactive. Il décrit aussi le rendu allant de l'application interactive aux périphériques de sortie en passant par les techniques complexes de présentation. Au-delà de sa capacité de description, ce modèle d'architecture assure la modifiabilité de la configuration du système (ajout ou suppression de périphériques au moment du design et de l'exécution). En outre, la modélisation des systèmes fait apparaitre qu'une partie importante du comportement est autonome c'est-à-dire qu'il évolue sans recevoir d'entrées produites par l'utilisateur. Les utilisateurs peuvent avoir du mal à comprendre et à anticiper ce genre de comportement autonome, qui peut engendrer des erreurs appelées automation surprises. Nous proposons une méthode d'évaluation à base de modèles des techniques d'interaction permettant d'analyser pour ensuite réduire significativement les erreurs d'utilisation liées à ces comportements inattendus et incompréhensibles. Enfin nous avons exploité le langage formel ICO (Interactive Cooperative Objects), pour décrire de façon complète et non ambiguë chacun des composants de l'architecture. Il est exploitable au moyen d'un outil d'édition et d'interprétation appelé Petshop, qui permet de faire fonctionner l'application interactive dans son ensemble (de l'entrée à la sortie). Nous avons complété cet environnement par une plateforme que nous avons appelée ARISSIM(ARINC 653 Standard SIMulator). Elle ajoute des mécanismes de sûreté de fonctionnement aux systèmes interactifs multimodaux développés avec Petshop. Plus précisément ARISSIM permet la ségrégation spatiale et la ségrégation temporelle des processus, ce qui accroît fortement la tolérance aux fautes durant l'exécution. Nos travaux proposent un socle aux équipes de conception pluridisciplinaires (principalement ergonomes spécialistes en IHM et développeurs) d'interaction homme-machine pour les systèmes critiques destinés aux cockpits d'aéronefs de prochaine génération
The work of this thesis aims at contributing to the field of the engineering of interactive critical systems. We aim at easing the introduction of new input and output devices (such as touch screens, mid-air gesture recognition ...) allowing multi-user and multimodal interactions in next generation of aircraft’s cockpits. Currently, development process in the aeronautical filed is not compatible with the complexity of multimodal interaction. On the other side development process of wide spread systems cannot meet the requirements of critical systems. We introduce a generic software and hardware architecture model called MIODMIT (Multiple Input Output devices Multiple Interaction Techniques) which aim the introduction of dynamically instantiated devices, allowing multimodal interaction in critical systems. It describes the organization of information flux with a complete and non-ambiguous way. It covers the entire spectrum of multimodal interactive systems, from input devices and their drivers, to the specification of interaction techniques and the core of the application. It also covers the rendering of every software components, dealing with fission and fusion of information. Furthermore, this architecture model ensure the system configuration modifiability (i.e. add or suppress a device in design or operation phase). Furthermore, moralizing a system reveals that an important part of the interactive part is autonomous (i.e. not driven by the user). This kind of behavior is very difficult to understand and to foresee for the users, causing errors called automation surprises. We introduce a model-based process of evaluation of the interaction techniques which decrease significantly this kind of error. Lastly, we exploited ICO (Interactive Cooperative Objects) formalism , to describe completely and unambiguously each of the software components of MIODMIT. This language is available in an IDE (integrated development environment) called Petshop, which can execute globally the interactive application (from input/output devices to the application core). We completed this IDE with an execution platform named ARISSIM (ARINC 653 Standard SIMulator), adding safety mechanisms. More precisely, ARRISIM allows spatial segregation of processes (memory allocution to each executing partition to ensure the confinement of potential errors) and temporal segregation (sequential use of processor). Those adding increase significantly the system reliability during execution. Our work is a base for multidisciplinary teams (more specifically ergonoms, HMI specialist and developers) which will conceive future human machine interaction in the next generation of aircraft cockpits
APA, Harvard, Vancouver, ISO, and other styles
29

Rodriguez, Bertha Helena. "Modèle SOA sémantique pour la multimodalité et son support pour la découverte et l'enregistrement de services d'assistance." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0006.

Full text
Abstract:
Les entrées et sorties unimodales dans les systèmes actuels ont atteint une maturité reconnue, avec les applications tactiles ou par les services distribués pour la géo-localisation ou la reconnaissance de la parole, du son ou l’'image. Cependant, l'intégration et l’instanciation de toutes ces modalités, manque d’une gestion intelligente du contexte d’acquisition et de restitution basée sur des notions fortement formalisées mais reflétant le sens commun. Ceci demande un comportement plus dynamique du système avec une approche plus adéquate pour gérer l'environnement de l'utilisateur. Cependant,la technologie nécessaire pour atteindre un tel objectif n’est pas encore disponible de façon standardisée, tant au niveau des descriptions fonctionnelles des services unimodaux que de leur description sémantique. Ceci est aussi le cas pour les architectures multimodales, où la composante sémantique est produite par chaque projet sans un accord commun pour assurer l’interoperabilité et est souvent limitée au traitement des entrées et sorties ou aux processus de fusion/fission strictement nécessaires au projet.Pour combler cette lacune, nous proposons une approche sémantique orientée services pour une architecture multimodale générique qui vise à améliorer la description et la découverte des composants de modalité pour les services d'assistance: l'architecture SOA2m. Cette architecture se veut entièrement focalisée sur la multimodalité et enrichie avec des technologies sémantiques car nous croyons que cette orientation permettra d'enrichir le comportement autonome des applications multimodales, avoir une perception robuste des échanges, et contrôler l'intégration sémantique
Unimodal inputs and outputs in current systems have become very mature with touch applications or distributed services for geo-localization or speech, audio and image recognition. However, the integration and instantiation of all these modalities, lack of an intelligent management of the acquisition and restitution context, based on highly formalized notions reflecting common sense. This requires a more dynamic behavior of the system with a more appropriate approach to manage the user environment.However, the technology required to achieve such a goal is not yet available in a standardized manner, both in terms of the functional description of unimodal services and in terms of their semantic description. This is also the case for multimodal architectures, where the semantic management is produced by each project without a common agreement in the field to ensure inter-operability, and it is often limited to the processing of inputs and outputs or fusion / fission mechanisms. To fill this gap, we propose a semantic service-oriented generic architecture for multimodal systems. This proposal aims to improve the description and the discovery of modality components for assistance services: this is the architecture SOA2m. This architecture is fully focused on multimodality and it is enriched with semantic technologies because we believe that this approach will enhance the autonomous behavior of multimodal applications, provide a robust perception of the user-system exchanges, and help in the control of the semantic integration of the human-computer interaction.As a result, the challenge of discovery is addressed using the tools provided by the field of the semantic web services
APA, Harvard, Vancouver, ISO, and other styles
30

Lanrezac, André. "Interprétation de données expérimentales par simulation et visualisation moléculaire interactive." Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7133.

Full text
Abstract:
L'objectif de l'approche des simulations moléculaires interactive (Interactive Molecular Simulations - IMS) est d'observer en direct la dynamique conformationnelle d'une simulation moléculaire en cours. Le retour visuel instantané permet un suivi instructif ainsi que l'observation des changements structurels imposés par la manipulation de l'IMS par l'utilisateur. J'ai mené une étude approfondie des connaissances pour rassembler et synthétiser l'ensemble des recherches qui ont développé l'IMS. La dynamique moléculaire interactive (Interactive Molecular Dynamics - IMD) est l'un des premiers protocoles IMS qui a posé les bases du développement de cette approche. Mon laboratoire de thèse s'est inspirée de celle-ci pour développer le moteur de simulation BioSpring basé sur le modèle de réseaux élastique. Ce modèle permet de simuler la flexibilité de grands ensembles biomoléculaires et ainsi potentiellement révéler des changements à longue échelle de temps qui ne seraient pas facilement saisis par la dynamique moléculaire. Ce moteur de simulation ainsi que le logiciel de visualisation UnityMol, développé par le biais du moteur de jeu Unity3D, et liés par l'interface de communication MDDriver ont été étendus pour les faire converger vers une suite logicielle complète. Le but est de fournir à un expérimentateur, qu'il soit expert ou profane, une boîte à outils complète pour modéliser, afficher et contrôler interactivement l'ensemble des paramètres d'une simulation. L'implémentation particulière d'un tel protocole, basé sur une communication formalisée et extensible entre les différents composants, a été pensée pour pouvoir facilement intégrer de nouvelles possibilités de manipulation interactive et des jeux de données expérimentales qui s'ajouteront aux contraintes imposées à la simulation. L'utilisateur peut donc manipuler la molécule d'intérêt sous le contrôle des propriétés biophysiques intégrés dans le modèle simulé, tout en ayant la possibilité de piloter à la volée les paramètres de simulation. Aussi, un des objectifs initiaux de cette thèse était d'intégrer la gestion des contraintes d'interaction ambigües du logiciel d'amarrage biomoléculaire HADDOCK directement dans UnityMol, rendant possible l'utilisation de ces mêmes contraintes à une variété de moteurs de simulations. Un axe principal de ces recherches était de développer un algorithme de positionnement rapide et interactif de protéines dans des membranes implicite tiré d'un modèle appelé Integrative Membrane Protein and Lipid Association Method (IMPALA) développée par l'équipe de Robert Brasseur en 1998. La première étape consistait à effectuer une recherche approfondie des conditions dans lesquelles les expériences ont été réalisées à l'époque, afin de vérifier la méthode et de valider notre propre implémentation. Nous verrons qu'elle ouvre des questions intéressantes sur la manière dont on peut reproduire les expériences scientifiques. L'étape finale qui conclue cette thèse était le développement d'une nouvelle méthode universelle d'interaction lipide-protéine, UNILIPID, qui est un modèle d'incorporation interactif de protéines dans les membranes implicites. Elle est indépendante de l'échelle de représentation, peut être appliquée à des niveaux tout atomes, gros-grains jusqu'au niveau d'un grain par acide aminé. La représentation de la dernière version Martini3[6] ainsi qu'une méthode d'échantillonnage Monte-Carlo et de simulation de dynamique des corps rigides ont été spécialement intégrés à la méthode, en plus de divers outils de préparation de systèmes. En outre, UNILIPID est une approche versatile qui reproduit précisément des termes d'hydrophobicité expérimentaux pour chaque acide aminé. En plus de membranes implicites simples, je décrirai une implémentation analytique de membranes doubles ainsi qu'une généralisation à des membranes de forme arbitraire, toutes deux s'appuyant sur des applications inédites
The goal of Interactive Molecular Simulations (IMS) is to observe the conformational dynamics of a molecular simulation in real-time. Instant visual feedback enables informative monitoring and observation of structural changes imposed by the user's manipulation of the IMS. I conducted an in-depth study of knowledge to gather and synthesize all the research that has developed IMS. Interactive Molecular Dynamics (IMD) is one of the first IMS protocols that laid the foundation for the development of this approach. My thesis laboratory was inspired by IMD to develop the BioSpring simulation engine based on the elastic network model. This model allows for the simulation of the flexibility of large biomolecular ensembles, potentially revealing long-timescale changes that would not be easily captured by molecular dynamics. This simulation engine, along with the UnityMol visualization software, developed through the Unity3D game engine, and linked by the MDDriver communication interface, has been extended to converge towards a complete software suite. The goal is to provide an experimenter, whether an expert or novice, with a complete toolbox for modeling, displaying, and interactively controlling all parameters of a simulation. The particular implementation of such a protocol, based on formalized and extensible communication between the different components, was designed to easily integrate new possibilities for interactive manipulation and sets of experimental data that will be added to the restraints imposed on the simulation. Therefore, the user can manipulate the molecule of interest under the control of biophysical properties integrated into the simulated model, while also having the ability to dynamically adjust simulation parameters. Furthermore, one of the initial objectives of this thesis was to integrate the management of ambiguous interaction constraints from the HADDOCK biomolecular docking software directly into UnityMol, making it possible to use these same restraints with a variety of simulation engines. A primary focus of this research was to develop a fast and interactive protein positioning algorithm in implicit membranes using a model called the Integrative Membrane Protein and Lipid Association Method (IMPALA), developed by Robert Brasseur's team in 1998. The first step was to conduct an in-depth search of the conditions under which the experiments were performed at the time to verify the method and validate our own implementation. We will see that this opens up interesting questions about how scientific experiments can be reproduced. The final step that concluded this thesis was the development of a new universal lipid-protein interaction method, UNILIPID, which is an interactive protein incorporation model in implicit membranes. It is independent of the representation scale and can be applied at the all-atom, coarse-grain, or grain-by-grain level. The latest Martini3 representation, as well as a Monte Carlo sampling method and rigid body dynamics simulation, have been specially integrated into the method, in addition to various system preparation tools. Furthermore, UNILIPID is a versatile approach that precisely reproduces experimental hydrophobicity terms for each amino acid. In addition to simple implicit membranes, I will describe an analytical implementation of double membranes as well as a generalization to arbitrarily shaped membranes, both of which rely on novel applications
APA, Harvard, Vancouver, ISO, and other styles
31

Thierry, Benjamin G. "Donner à voir, permettre d’agir. L’invention de l’interactivité graphique et du concept d’utilisateur en informatique et en télécommunications en France (1961-1990)." Electronic Thesis or Diss., Paris 4, 2013. http://www.theses.fr/2013PA040152.

Full text
Abstract:
A la fin des années 1950, l’informatique n’a pas d’utilisateur. Elle a des clients, des concepteurs et des serviteurs, mais son utilisation n’a pas donné lieu à la mise en place d’une relation directe entre l’individu et la machine. C’est la parcellisation des tâches qui constitue la réponse principale à la complexité de fonctionnement des calculateurs. Ce n’est que durant la décennie 1960 qu’apparaît la nécessité d’équiper les premiers professionnels dont l’activité nécessite une utilisation personnelle de la puissance de traitement de l’ordinateur. Cette apparition est historiquement située dans le giron de l’aviation civile et fait naître dans le même mouvement les réflexions pionnières de l’ergonomie de l’informatique sur le rôle des interfaces dans la compréhension et l’utilisation du dispositif par son usager. L’informatique trouve alors l’occasion d’une accélération de sa diffusion et les dispositifs interactifs se multiplient. De la bureautique qui commence à envahir les bureaux à la télématique qui incarne une véritable « interactivité à la française » jusqu’à la micro-informatique qui voit triompher un régime d’interactivité américain organisé autour des icones, menus déroulants et de la souris, cette thèse de doctorat se propose d’éclairer la naissance et le rôle des interfaces graphiques et du concept d’utilisateur dans le développement des dispositifs interactifs en informatique et en télécommunications en France
In the late 1950s, the computer has no user. Computing has customers, designers and servants, but its use has not resulted in the establishment of a direct relationship between the individual and the machine. It was only during the 1960s that appeared the need to equip the first professionals to use of the processing power of the computer. This appearance is historically situated in the civil aviation adminstration and created the first reflections in ergonomics on the role of interfaces in the understanding and use of the device by the user. The computer then finds the opportunity to accelerate its diffusion. From office automation to microcomputing via telematics wich represents a french way for interactivity, this doctoral thesis aims to explain the birth and the role of graphical user interfaces and user concept in the development of interactive devices in french computing and telecommunications
APA, Harvard, Vancouver, ISO, and other styles
32

Hamon-Keromen, Arnaud. "Définition d'un langage et d'une méthode pour la description et la spécification d'IHM post-W. I. M. P. Pour les cockpits interactifs." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2590/.

Full text
Abstract:
Avec l'apparition de nouvelles technologies comme l'iPad, etc. , nous rencontrons dans les logiciels grand public des interfaces de plus en plus riches et innovantes. Ces innovations portent à la fois sur la gestion des entrées (e. G. écrans multi-touch) et sur la gestion des sorties (e. G. Affichage). Ces interfaces sont catégorisées de type post-WIMP et permettent d'accroitre la bande passante entre l'utilisateur et le système qu'il manipule. Plus précisément elles permettent à l'utilisateur de fournir plus rapidement des commandes au système et au système de présenter plus d'informations à l'utilisateur lui permettant par là-même de superviser des systèmes de complexité accrue. L'adoption par le grand public et le niveau de maturité de ces technos permet d'envisager leur intégration dans les systèmes critiques (comme les cockpits ou de façon plus générale les systèmes de commande et contrôle). Toutefois les aspects logiciels liés à ces technologies sont loin d'être maîtrisés comme le démontrent les nombreux dysfonctionnements rencontrés par leurs utilisateurs. Alors que ces derniers peuvent être tolérés pour des applications de jeux ou de divertissement elles ne sont pas acceptables dans le domaine des systèmes critiques présentés précédemment. La problématique de cette thèse porte précisément sur le développement de méthodes, langages, techniques et outils pour la conception et le développement de systèmes interactifs innovants et fiables. La contribution de cette thèse porte sur l'extension d'une notation formelle : ICO (Objets Coopératifs Interactifs) pour décrire de manières exhaustive et non ambiguë les techniques d'interactions multi-touch et la démonstrabilité de son application dans le cadre des applications multi-touch civils. Nous proposons en plus de cette notation, une méthode pour la conception et la validation de systèmes interactifs offrants des interactions multi-touch à leurs utilisateurs. Le fonctionnement de ces systèmes interactifs est basé sur une architecture générique permettant une structuration des modèles allant de la partie matérielle des périphériques d'entrées jusqu' à la partie applicative pour la commande et le contrôle de ces systèmes. Cet ensemble de contribution est appliqué sur un ensemble d'étude de ca dont la plus significative est une application de gestion météo pour un avion civil
With the advent of new technologies such as the iPad, general public software feature richer and more innovative interfaces. These innovations are both on the input layer (e. G. Multi-touch screens) and on the output layer (e. G. Display). These interfaces are categorized as post-W. I. M. P. Type and allow to increase the bandwidth between the user and the system he manipulates. Specifically it allows the user to more quickly deliver commands to the system and the system to present more information to the user enabling him managing increasingly complex systems. The large use in the general public and the level of maturity of these technologies allows to consider their integration in critical systems (such as cockpits or more generally control and command systems). However, the software issues related to these technologies are far from being resolved judging by the many problems encountered by users. While the latter may be tolerated for gaming applications and entertainment, it is not acceptable in the field of critical systems described above. The problem of this thesis focuses specifically on the development of methods, languages, techniques and tools for the design and development of innovative and reliable interactive systems. The contribution of this thesis is the extension of a formal notation: ICO (Interactive Cooperative Object) to describe in a complete and unambiguous way multi-touch interaction techniques and is applied in the context of multi-touch applications for civilians aircrafts. We provide in addition to this notation, a method for the design and validation of interactive systems featuring multi-touch interactions. The mechanisms of these interactive systems are based on a generic architecture structuring models from the hardware part of the input devices up to the application part for the control and monitoring of these systems. This set of contribution is applied on a set of case studies, the most significant being an application for weather management in civilian aircrafts
APA, Harvard, Vancouver, ISO, and other styles
33

Dillen, Arnau. "Interface neuronale directe pour applications réelles." Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1295.

Full text
Abstract:
Depuis la création de l'ordinateur, la conception d'interfaces utilisateur intuitives est cruciale pour la facilité d'utilisation, influencée par l'environnement de déploiement et les utilisateurs cibles. Les interfaces cerveau-ordinateur (BCI) permettent de contrôler des appareils par des signaux neuronaux, promettant une meilleure interaction pour les personnes paralysées. Ce projet propose un logiciel de démonstration pour contrôler un bras robotisé à l'aide d'une BCI. Le système décode les intentions de l'utilisateur à partir des signaux EEG pour exécuter des commandes.Les objectifs scientifiques sont de développer une stratégie de décodage de l'imagerie motrice (IM) en temps réel, concevoir un système de contrôle améliorant l'expérience utilisateur malgré une précision de décodage limitée, et établir une procédure d'évaluation des performances. La littérature montre des problèmes comme le décodage hors ligne et l'absence de procédures d'évaluation standardisées, et note les limites de l'apprentissage profond pour le décodage de l'IM, orientant notre recherche vers des méthodes de machine learning basiques.Initialement, divers pipelines de décodage EEG pour le contrôle de neuroprothèses ont été comparés, trouvant que les modèles common spatial patterns et linear discriminant analysis étaient les plus efficaces. Une étude a montré qu'un dispositif EEG à 64 canaux pouvait être réduit à huit capteurs bien placés sans perte significative de précision, réduisant les coûts des dispositifs EEG à basse densité.Un dispositif d'évaluation pour les systèmes de contrôle BCI a été développé, avec des améliorations itératives des logiciels et la formation des participants. Un système de contrôle de réalité augmentée (RA) intégrant un retour visuel holographique et une approche de contrôle partagée utilisant l'oculométrie pour la sélection des objets et la vision par ordinateur pour la reconstruction spatiale a également été créé.Une étude utilisateur a comparé le système de contrôle BCI à un système basé uniquement sur la poursuite oculaire. Bien que l'oculométrie soit plus performante, l'étude a confirmé la faisabilité de notre système BCI pour des applications réelles avec des améliorations potentielles.Les principales conclusions sont :- Huit capteurs EEG suffisent pour des performances de décodage adéquates, avec une précision passant de 0,67 à 0,65 en passant de 64 à 8 capteurs.- Un système de contrôle partagé avec décodage BCI et intégration de la réalité augmentée améliore l'interface utilisateur. Deux classes d'IM suffisent pour un taux de réussite de 0,83.- Bien que l'oculométrie soit plus performante, les BCI sont utilisables dans le monde réel.- Les appareils EEG commerciaux sont viables pour l'acquisition d'EEG dans un système de contrôle BCI. Tous les participants utilisant l'appareil EEG commercial ont réussi les tâches d'évaluation, réduisant ainsi les coûts.Nous recommandons que les recherches futures intègrent des méthodes de décodage EEG avancées comme l'apprentissage profond, l'apprentissage par transfert et l'apprentissage continu. La ludification de la procédure d'étalonnage pourrait améliorer les données de formation et rendre le système de contrôle plus attrayant. Une intégration matérielle et logicielle plus étroite avec des capteurs intégrés dans le casque AR devrait conduire à un système de contrôle BCI prêt à l'emploi pour diverses applications
Since the inception of digital computers, creating intuitive user interfaces has been crucial. Effective and efficient user interfaces ensure usability, significantly influenced by the deployment environment and target demographic. Diverse interaction modalities are essential for inclusive device usability.Brain-computer interfaces (BCIs) enable interaction with devices through neural signals, promising enhanced interaction for individuals with paralysis and improving their autonomy and quality of life. This research project develops a proof-of-concept software using off-the-shelf hardware to control a robotic arm with BCI. The BCI system decodes user intentions from EEG signals to execute commands, focusing on the optimal design of a BCI control system for practical human-robot collaboration.The research established the following key objectives: developing a real-time motor imagery (MI) decoding strategy with fast decoding, minimal computational cost, and low calibration time; designing a control system to address low MI decoding accuracy while enhancing user experience; and developing an evaluation procedure to quantify system performance and inform improvements.The literature review identified issues like the prevalence of offline decoding and lack of standardized evaluation procedures for BCIs, and highlighted the limitations of using deep learning for MI decoding. This prompted a focus on off-the-shelf machine learning methods for EEG decoding.Initial development benchmarked various EEG decoding pipelines for neuroprostheses control, finding that standard common spatial patterns and linear discriminant analysis were practical despite user customization yielding optimal results. Another investigation reduced the number of sensors for MI decoding, using a 64-channel EEG device and demonstrating that reliable MI decoding can be achieved with just eight well-placed sensors. This feasibility of using low-density EEG devices with fewer than 32 electrodes reduces costs.A comprehensive evaluation framework for BCI control systems was developed, ensuring iterative software improvements and participant training. An augmented reality (AR) control system design was also described, integrating visual feedback with real-world overlays via a shared control approach using eye tracking for object selection and computer vision for spatial awareness.A user study compared the developed BCI control system to an eye-tracking-only control system. While eye tracking outperformed the BCI system, the study confirmed the feasibility of the BCI design for real-world applications with potential enhancements.Key findings include:- Eight well-placed EEG sensors are sufficient for adequate decoding performance, with a non-significant decrease in accuracy from 0.67 to 0.65 when reducing from 64 sensors to 8.- A shared control design informed by real-world contexts simplifies BCI decoding, and AR integration enhances the user interface. Only 2 MI classes are needed to achieve a success rate of 0.83 on evaluation tasks.- Despite eye tracking outperforming current BCI systems, BCIs are feasible for real-world use, with significantly higher efficiency in task completion time for the eye-tracking system.- Consumer-grade EEG devices are viable for EEG acquisition in BCI control systems, with all participants using the commercial EEG device successfully completing evaluation tasks, indicating further cost reductions beyond sensor reduction.Future research should integrate advanced EEG decoding methods like deep learning, transfer learning, and continual learning. Gamifying the calibration procedure may yield better training data and make the control system more attractive to users. Closer hardware-software integration through embedded decoding and built-in sensors in AR headsets should lead to a consumer-ready BCI control system for diverse applications
APA, Harvard, Vancouver, ISO, and other styles
34

Jourde, Frederic. "Collecticiel et Multimodalité : spécification de l'interaction la notation COMM et l'éditeur e-COMM." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00618919.

Full text
Abstract:
Dans le domaine de l'Interaction Homme-Machine, nos travaux concernent l'interaction multiutilisateur et multimodale. Exploitant les avancées importantes en terme de modalités d'interaction, de nombreux collecticiels reposent sur une combinaison de modalités, comme les systèmes multiutilisateurs autour d'une table augmentée. Néanmoins ces systèmes constituent des réalisations ad-hoc en l'absence d'outils de conception. Face à constat, nos contributions conceptuelles et logicielles concernent la phase de spécification de l'interaction multiutilisateur et multimodale. Nous présentons une notation de spécification notée COMM (COllaborative et MultiModale) qui est une extension de CTT par l'introduction de deux concepts, le rôle interactif et la tâche modale, et par la spécialisation des opérateurs temporels, en s'appuyant sur les relations de Allen. La notation COMM est instrumentée par un éditeur logiciel de spécifications COMM, nommé e-COMM ((http://iihm.imag.fr/demo/editeur/). COMM et e-COMM ont été utilisés dans un projet DGA de taille conséquente pour spécifier l'interaction au sein d'un poste de commande de drones militaires.
APA, Harvard, Vancouver, ISO, and other styles
35

POOK, Stuart. "Interaction et contexte dans les interfaces zoomables." Phd thesis, Télécom ParisTech, 2001. http://tel.archives-ouvertes.fr/tel-00005779.

Full text
Abstract:
La plupart des logiciels interactifs font un usage intensif des systèmes de menus. Ceux-ci permettent de sélectionner des opérations variées mais n'offrent généralement pas de moyen de contrôler leur exécution. Un second interacteur doit alors être utilisé (typiquement une boîte de dialogue) ce qui impose une décomposition d'une action unique (du point de vue de l'utilisateur) en une suite d'interactions successives. Nous proposons un nouveau type de menu, appelé Control Menu, qui permet de fluidifier l'interaction en unifiant la sélection et le contrôle des opérations.
L'accès interactif aux bases de données et la navigation dans les espaces d'information de grande taille constituent des tâches primordiales pour de nombreuses applications. Or, les systèmes de visualisation posent souvent des problèmes de désorientation, les utilisateurs ayant fréquemment des difficultés à se localiser précisément dans l'espace d'information et à trouver les données recherchées. Cette thèse propose plusieurs techniques d'aide contextuelle pour remédier à ces problèmes dans le cadre des interfaces basées sur le concept de zoom sémantique (ou interfaces zoomables).
Le premier type d'aide, qui offre une vue " en profondeur " de l'espace d'information via une représentation hiérarchique, permet non seulement de faciliter la localisation de la position courante et des informations recherchées mais aussi d'accélérer la navigation. La seconde technique est basée sur la génération dynamique de vues transparentes et temporaires que les utilisateurs peuvent créer et contrôler en un seul geste. Ces vues interactives se superposent à la vue courante en y rajoutant des informations contextuelles ou historiques qui aident l'utilisateur à comprendre ce qui entoure le point de focus ou quel chemin a été effectué pour arriver à ce dernier. Ces aides contextuelles nécessitent un couplage étroit entre interaction et présentation, qui est obtenu en utilisant des Control Menus.
APA, Harvard, Vancouver, ISO, and other styles
36

Dupuy-Chessa, Sophie. "Modélisation en Interaction Homme-Machine et en Système d'Information : A la croisée des chemins." Habilitation à diriger des recherches, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00764845.

Full text
Abstract:
Les recherches présentées dans ce mémoire visent à inventer des méthodes de conception ou des composants de méthodes (c'est-à-dire des modèles de produits, de processus, et des outils) de nature à soutenir le développement de Systèmes d'Information (SI) innovants, bénéficiant des avancées technologiques pour assurer à l'utilisateur une qualité en tout contexte d'usage. Elles se situent ainsi à la croisée de trois communautés, introduisant chacune une préoccupation : l'Interaction Homme-Machine (IHM) pour la prise en compte de l'utilisateur final ; les Systèmes d'Information (SI) pour la considération du contexte organisationnel ; et le Génie Logiciel (GL) pour l'étude et l'invention des techniques et outils supports. Les contributions s'articulent autour de trois axes : 1) la mise en commun des pratiques des domaines de l'IHM et des SI pour favoriser la prise en compte des spécificités de ces deux domaines ; 2) l'étude conjointe de l'auto-explication pour avancer, avec les spécificités de chacun, vers le défi commun des modèles interactifs ; 3) les pratiques et outils de gestion de modèles au delà des domaines de l'IHM et des SI.
APA, Harvard, Vancouver, ISO, and other styles
37

Merlin, Bruno. "Méthodologie et instrumentalisation pour la conception et l'évaluation des claviers logiciels." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1323/.

Full text
Abstract:
Avec l'expansion des dispositifs mobiles, l'efficacité de la saisie de texte est un défi de plus en plus important pour l'interaction homme-machine. Or, nous observons que, bien que les claviers type AZERTY ou téléphone, traditionnellement utilisés sur ces supports, soient évalués comme sous-optimaux, et, bien que de nombreuses alternatives évaluées comme plus performantes soient proposées dans la littérature, ces nouvelles alternatives restent très marginalement utilisées. Sur la base de cette observation, nous argumentons que la finalité des évaluations ne tient compte que d'un aspect du clavier, aspect qui n'est pas représentatif de la capacité d'un utilisateur à intégrer les concepts proposés dans son quotidien. Nous proposons en conséquence une stratégie complémentaire d'évaluation sur la base d'une évaluation heuristique des claviers logiciels. Par ailleurs, de manière à faciliter la mise en œuvre des évaluations et simplifier le design de nouveaux claviers, nous proposons une nouvelle version (E-Assist II) de la plate-forme E-Assiste. Elle permet, en premier lieu, de facilité le design et le déroulement des expérimentations, et plus largement d'encadrer les évaluations théoriques, expérimentales et heuristiques des claviers. Une version TinyEAssist permet également de déployer des expérimentations sur des supports mobiles (téléphones portables notamment). En second lieu, sur la base de l'étude de la structure des claviers logiciels, nous avons de plus proposé un langage de spécification des claviers permettant de générer des claviers logiciels complexes (interagissant potentiellement avec des systèmes de prédiction) à des fins d'expérimentation ou de simple usage. Enfin, sur la base des critères de performance mis en évidence par les évaluations heuristiques, nous proposons quatre nouveaux paradigmes de claviers. Parmi ces paradigmes deux ont offert des perspectives particulièrement intéressantes : en premier lieu le clavier multi-layer consistant à conduire progressivement, au cours d'une période transitoire, un utilisateur d'une distribution de touches type AZERTY vers une distribution de touches optimisée ; Le second consistant à faciliter l'accès aux caractères type accents, majuscules ou ponctuation, souvent déconsidérés dans l'optimisation des claviers logiciels
The expansion of mobile devices turn text input performances a major challenge for Human-Machine Interaction. We observed that, even if traditional QWERTY soft keyboards or telephone based soft keyboard were evaluated as poorly efficient, and, even if several alternatives evaluated as more efficient were proposed in the research field, these new alternatives are rarely used. Based on this observation, we argue that the goal of soft keyboard evaluation focus on long term performances whereas does not take into account the perspective for a user to use it in his quotidian. Consequently, we propose a complementary evaluation strategy base on heuristic evaluation methodology. In order to ease the evaluation and design of new soft keyboards, we proposed a new version (E-Assist II) of the E-Assiste plate-form. This plate-form aims, at first, to facilitate the design and procedure of experimentations and, more generally, to guide the theoretical, experimental and heuristic evaluations. A compact version (TinyEAssist) enables to perform experimentation on mobile environment such as mobile phone. At second, based on soft keyboard structure study, we proposed a keyboard specification language enabling to generate complex keyboard (including soft keyboard interacting with prediction systems). The generated soft keyboards may be used into the experimentation plate-form or interacting with the exploration system. At last, based on the criteria highlighted by the heuristic evaluation, we proposed four new soft keyboard paradigms. Among them two paradigms showed interesting perspectives: at first the multilayer keyboard consist in accompanying the user from a standard QWERTY layout to an optimized layout during a transition period; the second consist in accelerating the access to the characters such as accents, upper-case, punctuation, etc. , frequently ignored in the keyboard optimizations
APA, Harvard, Vancouver, ISO, and other styles
38

Touraine, Damien. "Interaction "naturelle" en environnements immersifs - Démonstrateur multimodal et validation sur des applications scientifiques." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00004056.

Full text
Abstract:
Cette thèse décrit la plate-forme EVI3d, dont le but premier est d'intégrer tous les résultats récents de la communication humain-machine pour améliorer les interactions en Réalité Virtuelle (RV). En termes d'architecture logicielle, le modèle proposé consiste à gérer des événements qui transitent d'un module interactif vers un autre au travers d'un serveur distribué. Afin de soulager les calculateurs 3d de certaines charges de traitement liées à l'interaction, plusieurs périphériques et modules sont ainsi exportés sur d'autres machines. Les systèmes logiciels actuels de RV ne permettent pas cette gestion distribuée des interactions immersives. Dans ce contexte, la plate-forme EVI3d intègre également un ensemble logiciel pour le développement d'applications sur divers dispositifs immersifs. Ce module permet entre autre de gérer dynamiquement la configuration géométrique et le degré d'immersion de l'application en accord avec celle du dispositif. L'une des fonctionnalités originales de cet ensemble logiciel vise à libérer la main de tout autre périphérique que ceux associés à la manipulation des objets. Pour gérer le déplacement de l'utilisateur au sein de scènes virtuels, nous proposons une extension du concept de véhicule. En analysant les mouvements de la tête de l'utilisateur par rapport à un référentiel neutre préalablement calibré, le principe consiste à utiliser cet écart pour paramétrer le déplacement du véhicule dans le monde virtuel. Cette thèse prouve enfin la faisabilité d'une approche multimodale des interactions en RV. Un démonstrateur présente notamment des interactions immersives qui utilisent une synchronisation temporelle des machines pour fusionner des événements interactifs issus de systèmes de reconnaissance à forte latence (geste, voix). Notons que la plate-forme EVI3d est entre autre validée par son utilisation dans trois applications à caractère scientifique : Mécanique des Fluides, Visualisation d'ADN et CAO en environnement immersif.
APA, Harvard, Vancouver, ISO, and other styles
39

Chalon, René. "Réalité mixte et travail collaboratif : IRVO, un modèle de l'interaction homme-machine." Phd thesis, Ecole Centrale de Lyon, 2004. http://tel.archives-ouvertes.fr/tel-00152230.

Full text
Abstract:
L'un des principaux reproches que l'on fait à l'informatique traditionnelle est que le monde numérique de l'ordinateur est trop déconnecté du monde réel dans lequel les utilisateurs évoluent. La Réalité Mixte (RM) s'intéresse aux systèmes interactifs dans lesquels des objets réels et des données informatiques sont mêlées de manière cohérente.
Dans notre état de l'art nous analysons de nombreuses applications et technologies qui ont été conçues depuis une dizaine d'années dans ce domaine de façon généralement indépendantes et autonomes. Il semble désormais possible de proposer des modèles unificateurs et des méthodologies de conception associées.
Les modèles traditionnels de l'Interaction Homme-Machine (IHM) et du Travail Collaboratif Assisté par Ordinateur (TCAO), comme nous le montrons, ne sont pas adaptés car ils sont conçus pour la modélisation du logiciel et ne prennent pas (ou peu) en compte les artefacts réels.
Nous proposons donc le modèle IRVO (Interacting with Real and Virtual Objects) qui cherche à formaliser l'interaction entre les utilisateurs et les objets réels et virtuels. Pour cela IRVO identifie les entités intervenant dans le système (les utilisateurs, les outils, les objets de la tâche et l'application informatique) et leurs relations. Son pouvoir d'expression nous permet de modéliser les applications de la littérature dans le but de les comprendre, les comparer et les classer.
Nous montrons également que IRVO est un support à la conception d'applications nouvelles : il peut être utilisé soit comme point de départ, soit en fin d'analyse pour aider le concepteur à vérifier un certain nombre de critères (complétude, cohérence, continuité, etc.). Nous étudions la liaison entre IRVO et les modèles classiques de l'IHM et du TCAO et plus spécifiquement avec les modèles AMF-C et Arch. Dans une démarche MBA (Model-Based Approach), IRVO prend naturellement la place aux côtés des modèles de tâches et de dialogues.
APA, Harvard, Vancouver, ISO, and other styles
40

Pietriga, Emmanuel. "Langages et techniques d'interaction pour la visualisation et la manipulation de masses de données." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00709533.

Full text
Abstract:
Les récentes avancées en matière d'acquisition, stockage et traitement des données ont résulté en une augmentation spectaculaire de la quantité d'information collectée et analysée, et ce dans de nombreux domaines : disciplines scientifiques, industrie, commerce, bibliothèques numériques, données mises à disposition du public par des organismes gouvernementaux ; domaines auxquels s'ajoutent les contenus que tout un chacun peut mettre à disposition sur le Web à travers les réseaux sociaux, les blogs ou les sites de partage de documents multimédia. La capacité des systèmes et bases de données hétérogènes d'échanger et croiser ces données, mais aussi d'inférer de nouvelles données, s'est aussi grandement améliorée, grâce à des technologies émergentes comme celles issues des recherches liées au Web des données -- par opposition au Web des documents -- s'appuyant sur les technologies du Web sémantique. Mes travaux de recherche s'inscrivent dans le domaine de l'interaction homme-machine (IHM), et portent plus spécifiquement sur la conception, le développement et l'évaluation de techniques d'interactions et de visualisation facilitant la compréhension et la manipulation de ces masses de données. Les représentations graphiques peuvent être d'une grande aide quand elles fournissent des visualisations pertinentes des données, de leur structure, et qu'elles sont couplées à des techniques d'interaction permettant une navigation efficace dans ces grands espaces d'information. Elles jouent à ce titre un rôle important dans la recherche et le développement de systèmes informatiques pour la gestion et l'analyse de masses de données semi-structurées. Mes activités de recherche sont organisées autour de deux thèmes, dont je présenterai les principaux résultats : langages visuels et techniques de visualisation d'information pour aider les utilisateurs à interpréter et manipuler des jeux de données semi-structurés ; conception, développement et évaluation expérimentale de techniques d'interaction multi-échelle pour naviguer dans des masses de données sur différents types de plate-formes : dispositifs mobiles, stations de travail, murs d'images très haute résolution.
APA, Harvard, Vancouver, ISO, and other styles
41

Roussel, Nicolas. "Nouvelles formes de communication et nouvelles interactions homme-machine pour enrichir et simplifier le quotidien." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00280550.

Full text
Abstract:
Mon domaine de recherche est l'Interaction Homme-Machine. Mes travaux dans ce domaine s'organisent autour de deux axes.

Le premier axe concerne la conception de systèmes interactifs pour la coordination, la communication et la collaboration entre individus. Je m'intéresse en particulier à la manière dont des moyens vidéo peuvent être utilisés pour permettre des échanges plus subtils (i.e. légers, nuancés, implicites) et plus informels (i.e. spontanés, opportuns) que ceux permis par les systèmes actuels.

Le deuxième axe concerne la conception de nouvelles métaphores et techniques destinées à enrichir et simplifier l'interaction au quotidien avec les systèmes informatiques. Je m'intéresse plus particulièrement aux moyens de faire évoluer la métaphore du bureau sous-jacente à la gestion des données et des applications dans la plupart des systèmes actuels.

Ce document présente les problématiques liées à ces deux axes de recherche, les travaux s'y rapportant auxquels j'ai participé depuis septembre 2001 et quelques perspectives ouvertes par ces travaux.
APA, Harvard, Vancouver, ISO, and other styles
42

Guidini, Gonçalves Taisa. "Intégration des questions d'ingénierie de l'interaction homme-machine dans les modèles d'aptitude et maturité de processus logiciel." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0040/document.

Full text
Abstract:
Les modèles d’aptitude et maturité de processus logiciel (AMPL) sont actuellement largement utilisés dans l’industrie. Pour exécuter les pratiques définies dans ces modèles, des approches d’ingénierie logicielle sont appliquées. On constate également une grande définition en termes de méthodes, techniques, patrons et normes pour l’analyse, la conception, la mise en œuvre et l’évaluation de systèmes interactifs, axés sur les questions d’Interaction Homme-Machine (IHM). Néanmoins, il est bien connu que les approches d’IHM ne sont pas largement utilisées dans l’industrie. Afin de profiter de l’utilisation des modèles AMPL, cette thèse propose d’intégrer les questions d’IHM (concepts de conception, mise en œuvre et évaluation de systèmes interactifs) dans le modèle international le plus connu (CMMI-DEV – Capability Maturity Model Integration for Development) et dans le modèle brésilien (MR-MPS-SW – MPS for Software reference model). À cette fin, nous avons travaillé sur (i) l’identification des approches de l’IHM appropriées pour chaque pratique de l’ingénierie préconisée par ces modèles, (ii) l’évaluation et l’amélioration des approches de l’IHM identifiées avec des experts en IHM, (iii) la validation de la proposition dans un environnement académique, et (iv) la réalisation de deux études empiriques sur la perception de la connaissance et l’utilisation des approches de l’IHM dans l’industrie. En conséquence, nous avons obtenu 14 catégories d’approches de l’IHM avec des exemples de méthodes, techniques, patrons et normes propres à réaliser chaque pratique des activités d’ingénierie des deux modèles lors du développement de systèmes interactifs. De plus, l’étude empirique avec l’industrie brésilienne a confirmé statistiquement que les consultants de ces modèles AMPL ne connaissent et n’utilisent pas ou peu les approches de l’IHM, comme ils connaissent et utilisent des approches d’ingénierie logicielle
Software process capability maturity (SPCM) models are currently widely used in industry. To perform the practices defined in these models, software engineering approaches are applied. We also have experienced a large definition of methods, techniques, patterns, and standards for the analysis, design, implementation, and evaluation of interactive systems focusing on Human-Computer Interaction (HCI) issues. Nevertheless, it is well known that HCI approaches are not largely used in industry. In order to take advantage of the widespread use of SPCM models, this thesis proposes to integrate HCI issues (concepts of design, implementation, and evaluation of interactive systems) in the most known international SPCM model (CMMI-DEV – Capability Maturity Model Integration for Development) and in the Brazilian SPCM model (MR-MPS-SW – MPS for Software reference model). To that end, we have worked on (i) the identification of appropriate HCI approaches for each practice of the engineering advocated by these models, (ii) the evaluation and improvement of the identified HCI approaches with HCI experts, (iii) the validation of the proposition in an academic environment, and (iv) the conduction of two empirical studies about the perception of knowledge and use of HCI approaches in the industry. As a result, we got 14 categories of HCI approaches with examples of methods, techniques, patterns, and standards adequate to perform each practice of engineering activities of the both models when developing interactive systems. Moreover, the empirical study, in Brazilian industry, confirmed statistically that consultants of those SPCM models do not know and do not use HCI approaches as well as they know and use software engineering approaches
APA, Harvard, Vancouver, ISO, and other styles
43

Campeau-Lecours, Alexandre. "Développement d'algorithmes de commande et d'interfaces mécatroniques pour l'interaction physique humain-robot." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29608/29608.pdf.

Full text
Abstract:
Les systèmes simples et les systèmes plus évolués tels que les robots aident l’être humain à accomplir plusieurs tâches depuis fort longtemps. Dans certains cas, le système en question remplace carrément l’humain alors que dans d’autres, le système agit en coopération avec celui-ci. Dans le dernier cas, le système représente plus un outil servant à augmenter les performances ou bien à éviter des tâches ingrates. L’avantage principal de cette augmentation humaine est de laisser à l’opérateur une certaine latitude dans le processus décisionnel de la tâche. Les forces propres aux humains et aux robots sont donc combinées afin d’obtenir une synergie, c’est-à-dire d’obtenir un meilleur système que la somme de ses composantes. Cependant, accomplir des tâches de coopération complexes de manière intuitives représente un défi de taille. Alors qu’auparavant les robots étaient isolés et donc conçus et programmés en conséquence, la nouvelle génération de robots doit être capable de comprendre son environnement et les intentions de l’humain, et d’y répondre adéquatement et de manière sécuritaire, intuitive, conviviale et ergonomique. Ceci apporte de nombreux débouchés dans différents domaines tels que la manutention, l’assemblage manufacturier, la réadaptation physique, la chirurgie, l’apprentissage via des simulations haptiques, l’aide aux personnes handicapées et bien d’autres. Cette thèse comporte trois parties. La première traite de la commande des robots d’interaction physique. L’approche pour parvenir à une commande intuitive, les bonnes pratiques, un algorithme d’interaction s’adaptant aux intentions de l’humain et l’adaptation d’une commande par couple pré-calculé à l’interaction humain-robot sont présentés. La deuxième partie traite de systèmes mains sur la charge qui sont plus intuitifs à utiliser pour l’opérateur. Le développement de ces systèmes comprend des innovations mécaniques et de commande avancées. La troisième partie traite finalement d’éléments de sécurité. Elle présente d’abord le développement d’un algorithme d’observation et de contrôle des vibrations et ensuite le développement d’un capteur détectant à distance la proximité humaine. Cette thèse se propose d’apporter plusieurs contributions, tant dans un esprit scientifique que pour des applications industrielles requérant des réponses immédiates.
For a long time, simple and advanced systems such as robots have been helping humans to accomplish several tasks. In some cases, the system simply replaces the operator while in other cases, the system cooperates with him/her. In the latter case, the system is more a tool used to increase performance or to avoid unpleasant tasks. The principal advantage of this human augmentation is to leave a certain latitude to the operator in the task decision process. Specific strengths of humans and robots are then combined to obtain a synergy, that is obtaining a more complete system than the sum of its parts. However, achieving complex tasks in a way that is intuitive to the human represents a huge challenge. While robots were previously segregated from humans and then designed and programmed accordingly, the new generation of robots must be able to perceive their environment and the human intentions and to respond to them safely, adequately, intuitively and ergonomically. This leads to several opportunities in a wide range of fields such as materials handling, assembly, physical rehabilitation, surgery, learning through haptic simulations, help to disabled people and others. This thesis comprises three parts. The first one deals with the control of physical interaction robots. The approach to an intuitive control, good practices, an interaction algorithm adapting to human intentions and the adaptation of a computed-torque control scheme for human-robot interaction are presented. The second part presents hands on payload systems which are more intuitive to use for the operator. These system developments include mechanical and advanced control innovations. The third part introduces safety features. First, the development of a vibration observer/controller algorithm is presented and then the development of a sensor detecting human proximity is reported. This thesis attempts to provide contributions, in a scientific spirit as much as for industrial applications requiring immediate solutions.
APA, Harvard, Vancouver, ISO, and other styles
44

Fenicio, Alessandro. "Ingénierie de l'Interaction Homme-Machine et Persuasion Technologique : étude du concept de Chemin Persuasif." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM035/document.

Full text
Abstract:
Les défis sociétaux sont une préoccupation internationale, avec des incantations quotidiennes au changement : “Fumer tue”, “Boire ou conduire, il faut choisir”, “Manger cinq fruits et légumes par jour”, etc. Toutefois, ces campagnes publicitaires restent à effet limité.Les technologies persuasives sont explorées depuis une quinzaine d’années pour mobiliser le numérique sur ces difficultés de changement de comportement. Les dispositifs et applications de monitoring se multiplient avec des succès commerciaux comme les bracelets ou les montres d’activités physiques. Toutefois l’incitation au changement reste limitée malgré le potentiel du numérique pour des stratégies personnalisées. La difficulté tient à l'interdisciplinarité inhérente au domaine : concevoir des systèmes interactifs persuasifs requiert de maîtriser les fondamentaux et les avancées en psychologie cognitive et sociale, ce qui rend l’exercice extrêmement ambitieux.Cette thèse contribue à l’ingénierie des systèmes interactifs persuasifs. Elle traite du processus de changement de comportement. Elle propose le concept de chemin persuasif pour stimuler l’utilisateur dans son changement de comportement. Le chemin persuasif est une succession d’événements incitant l’utilisateur à cheminer d’une certaine façon dans son ensemble de comportements possibles. Cet ensemble est modélisé en une machine à états explicitant l’ensemble des comportements et des transitions possibles entre comportements. Les transitions sont déclenchées en contexte, lorsque les déterminants des comportements correspondants sont satisfaits dans le contexte courant de l’utilisateur. Une architecture persuasive est proposée pour opérer les machines à état et chemins persuasifs. Le formalisme des machines à état permet aussi la caractérisation et la comparaison des processus de changement de la littérature.Une méthode de conception est proposée pour concevoir, étape par étape, la machine à états et le chemin persuasif. Les étapes procèdent, pas à pas, à des choix de conception rendant le système petit à petit réalité dépendant, problème dépendant, domaine dépendant, tâche dépendant et contexte dépendant. Cette conception progressive est structurante et permet une révision des choix de conception selon la performance observée de la persuasion.Les contributions conceptuelles (concepts et méthode de conception) sont illustrées sur deux cas d’étude complémentaires : d’une part, CRegrette, une application visant à stopper un comportement (fumer) ; d’autre part, Mhikes, une application visant à renforcer un comportement (marcher). Une implémentation complète de Mhikes (concepts et architecture) est détaillée pour démontrer la faisabilité technique des propositions. Sa maturité technologique a permis un déploiement de l’application en grandeur réelle et une évaluation expérimentale des contributions.Les résultats d’évaluation confirment la pertinence des modèles et de l’architecture pour placer des sondes logicielles permettant (1) d’identifier les rôles joués par les utilisateurs, 2) d’en suivre les éventuels changements et 3) d’émettre des notifications personnalisées. Les notifications s’avèrent plus performantes que les campagnes de communication aujourd’hui pratiquées par l’entreprise Mhikes. Toutefois le changement de rôle reste difficile, avec des transitions extra-rôles plus difficiles à franchir que les transitions intra-rôle.In fine, la thèse livre un ensemble complet de méthode, modèles et outils pour l’ingénierie des systèmes interactifs persuasifs. Plus largement, cet ensemble peut servir à d’autres communautés pour progresser dans la compression de l’humain en situation d’interaction
Societal challenges are an international concern. Daily advertising campaigns rise attention of people to make them change: "Smoking kills", "Drinking or driving, choose", "Eating five fruits and vegetables a day", etc. However, these campaigns have limited effect.Persuasive technologies have been explored for fifteen years to orient technology on the difficulty of changing behavior. Monitoring devices such as bracelets or watches of physical activities and applications are multiplying obtaining commercial successes. However, despite the potential capabilities of technology of delivering personalized strategies, the incentive to change remains limited. The difficulty lies in the multidisciplinarity of the field: designing persuasive interactive systems requires mastering the fundamental concepts and the advances in cognitive and social psychology, which makes the persuasive practice extremely ambitious.This thesis contributes to the engineering of persuasive interactive systems. It deals with the process of behavior change and proposes the concept of persuasive path to stimulate users in their behavior change. The persuasive path is a succession of events designed to pave the progression of the user toward the change among the set of possible behaviors. This set is modeled with state machines describing all the possible transitions between behaviors. Transitions between behaviors are triggered when the determinants of the corresponding behaviors are satisfied in the current user's context. A persuasive architecture is proposed to orchestrate the state machines and the persuasive paths. The formalism of state machines also allows the characterization and comparison of change processes in the literature.An incremental design method is proposed to design, step by step, the state machine and the persuasive path. The steps proceed in order to actuate design choices that make the system little by little more dependent: problem dependent, domain dependent, task dependent and context dependent. This structuring progressive conception allows a revision of the design choices according to the observed performance of the persuasion.The conceptual contributions (concepts and design method): CRegrette, an application aimed at stopping behavior (smoking); on the other hand, Mhikes, an application aimed at reinforcing behavior (walking). A complete implementation of Mhikes (concepts and architecture) is made available to show the technical feasibility of the approach. The technological maturity of this approach allow the deployment of the application at real scale and an experimental evaluation of the contributions.The evaluation results confirms the relevance of the models and of the architecture, allowing the introduction of software probes (1) to identify the roles endorsed by users, 2) to follow the possible changes and 3) to produce personalized notifications. The notifications resulted more efficient than the communication campaigns operated by Mhikes. However, the role changes remains complex, with extra-transitions that are more difficult to actuate than intra-transitions.In conclusion, the thesis delivers a complete set of methods, models and tools for the engineering of persuasive interactive systems. More broadly, this set can be used by other communities to progress in the compression of human interaction
APA, Harvard, Vancouver, ISO, and other styles
45

Jourde, Frédéric. "Collecticiel et multimodalité : spécification de l'interaction la notation COMM et l'éditeur e-COMM." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM018/document.

Full text
Abstract:
Dans le domaine de l'Interaction Homme-Machine, nos travaux concernent l'interaction multiutilisateur et multimodale. Exploitant les avancées importantes en terme de modalités d'interaction, de nombreux collecticiels reposent sur une combinaison de modalités, comme les systèmes multiutilisateurs autour d'une table augmentée. Néanmoins ces systèmes constituent des réalisations ad-hoc en l'absence d'outils de conception. Face à constat, nos contributions conceptuelles et logicielles concernent la phase de spécification de l'interaction multiutilisateur et multimodale. Nous présentons une notation de spécification notée COMM (COllaborative et MultiModale) qui est une extension de CTT par l'introduction de deux concepts, le rôle interactif et la tâche modale, et par la spécialisation des opérateurs temporels, en s'appuyant sur les relations de Allen. La notation COMM est instrumentée par un éditeur logiciel de spécifications COMM, nommé e-COMM ((http://iihm.imag.fr/demo/editeur/). COMM et e-COMM ont été utilisés dans un projet DGA de taille conséquente pour spécifier l'interaction au sein d'un poste de commande de drones militaires
Multi-user multimodal interactive systems involve multiple users that can use multiple interaction modalities. Although multi-user multimodal systems are becoming more prevalent (especially multi-user multimodal systems involving multi-touch surfaces), their design is still ad-hoc without properly keeping track of the design process. Addressing this issue of lack of design tools, our doctoral research is dedicated to the specification of multi-user multimodal interaction. The doctoral research contributions include the COMM (Collaborative and MultiModal) notation and its on-line editor for specifying multi-user multimodal interactive systems. Extending the CTT notation, the salient features of the COMM notation include the concepts of interactive role and modal task as well as a refinement of the temporal operators applied to tasks using the Allen relationships. The COMM notation and its on-line editor e-COMM (http://iihm.imag.fr/demo/editeur/) have been successfully applied to a large scale project dedicated to a multimodal military command post for the control of unmanned aerial vehicles (UAV) by two operators
APA, Harvard, Vancouver, ISO, and other styles
46

Rey, Stéphanie. "Apports des interactions tangibles pour la création, le choix et le suivi de parcours de visite personnalisés dans les musées." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0049.

Full text
Abstract:
La personnalisation est une tendance envisagée par les musées pour faire face à la diversité des visiteurs et de leurs pratiques de visite. Afin de favoriser la mise en œuvre de visites personnalisées, nous questionnons l’apport des interactions tangibles, non seulement pour les visiteurs, mais également pour les professionnels du musée. Comment aider les médiateurs culturels à concevoir des parcours personnalisés prenant en compte la diversité des profils de visiteurs ? Comment aider les visiteurs à choisir et suivre le parcours qui correspond à leurs envies et besoins ? Nous avons appliqué un processus de conception centrée utilisateurs avec des musées partenaires afin de concevoir, implémenter et évaluer des outils tangibles permettant de répondre à ces questions. L'analyse des besoins des utilisateurs (médiateurs culturels et visiteurs) nous a permis de définir six caractéristiques principales à prendre en compte pour la personnalisation des visites ainsi que de faire émerger le concept de personnalisation multicritères. Nous proposons un concept d’interface permettant d’associer le choix des caractéristiques visiteur constituant un profil et le suivi dynamique de l’avancement de la création des parcours personnalisés pour chaque combinaison pour les médiateurs. Ce concept a été instancié selon deux modalités d’interaction tangible et tactile, que nous avons comparées à travers une étude expérimentale auprès de médiateurs de musée. Nous décrivons également la conception itérative de prototypes d’aide au choix de parcours personnalisés pour les visiteurs, ainsi que l’étude pilote menée dans un musée partenaire. Les prototypes conçus pendant cette thèse mettent en œuvre le paradigme d’interaction token+constraint. Nous proposons une analyse systématique de la littérature référençant le paradigme d’interaction token+constraint, ainsi qu’une grille heuristique de 24 propriétés réparties en cinq catégories reprenant, synthétisant et illustrant les concepts de l’article séminal, que nous appliquons aux prototypes conçus durant la thèse
Museums are considering the personalization trend to accommodate the diversity of visitors and their visiting practices. In order to support the spread of personalized visits, we question the contribution of tangible interactions, not only for visitors but also for museum professionals. How to help cultural mediators design personalized visits that reflect the diversity of visitor profiles? How to help visitors choose and follow the visit that suits their wishes and needs? We applied a user-centered design process with partner museums to design, implement and evaluate tangible tools to answer these questions. The user needs analysis (cultural mediators and visitors) allowed us to define six main characteristics to consider for the personalization of visits and to identify the concept of multi-criteria personalization. For the cultural mediators, we propose an interface concept combining the choice of visitor characteristics to constitute a profile and the dynamic monitoring of the personalized visits creation progress for each combination. We instantiated this concept using two interaction modalities, tangible and tactile, which we compared through an experimental study with museum mediators. For the visitors, we iteratively designed prototypes to help them choose personalized visits and conducted a pilot study in a partner museum. The prototypes designed during this thesis implement the token+constraint interaction paradigm. We propose a systematic literature review referencing the token+constraint interaction paradigm, as well as a heuristic grid of 24 properties divided into five categories that resume, synthesize and illustrate the concepts of the seminal article. We applied this heuristic to the prototypes designed during the thesis
APA, Harvard, Vancouver, ISO, and other styles
47

Alexandra, Nemery. "Elaboration, validation et application de la grille de critères de persuasion interactive." Phd thesis, Université de Metz, 2012. http://tel.archives-ouvertes.fr/tel-00735714.

Full text
Abstract:
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, cet aspect d'influence dans les médias représente un champ émergent ayant déjà fait ses preuves au cours de nombreuses recherches dans des domaines variés. Il fait partie intégrante de l'expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée pour répondre à ce besoin des concepteurs, des évaluateurs mais également des utilisateurs. Suite à la revue de cent soixante quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée comprenant : crédibilité, privacité, personnalisation, attractivité, sollicitation, accompagnement initial, engagement et emprise. Cette grille dégage également vingt-trois sous-critères. Elle distingue la dimension statique, soit l'ensemble des qualités qu'une interface devrait posséder pour être propice à la mise en place d'une boucle dite engageante, aussi appelée dimension dynamique. Cette grille a suivi une méthode inductive et est basée sur un processus de conception itératif prenant en compte l'avis d'experts en IHM et en ergonomie. Suite à différents pré-tests et à sa stabilisation, cet outil a été testé auprès de trente experts en ergonomie afin de procéder à sa validation. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Après un premier usage comme outil d'évaluation, la grille a été utilisée comme aide à la conception d'interfaces plus influentes. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, l'application de cet outil dans le domaine de l'informatique décisionnelle et des progiciels de gestion intégrée présente des spécificités. Un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle.
APA, Harvard, Vancouver, ISO, and other styles
48

Serrano, Marcos. "Interaction multimodale en entrée : conception et prototypage." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM033.

Full text
Abstract:
NOS travaux ont trait à la conception de systèmes interactifs. En particulier nous nous intéressons aux systèmes multimodaux, systèmes informatiques mettant en jeu plusieurs modalités d'interaction. Nos travaux visent à définir des méthodes et des outils pour la conception de tels systèmes interactifs. En particulier, nous visons le prototypage d'interfaces multimodales en entrée, une étape importante dans la conception de systèmes interactifs. Nous présentons ainsi une approche à composants pour la conception et le prototypage fonctionnel ou non fonctionnel d'interfaces multimodales en entrée. Cette approche est basée sur un modèle de la multimodalité. Nos contributions sont donc conceptuelles et logicielles. Notre contribution conceptuelle consiste en un espace de caractérisation de composants logiciels pour la multimodalité. Cet espace permet de caractériser les composants logiciels au sein d'un assemblage de composants visant à décrire une interaction multimodale. Il offre au concepteur un cadre conceptuel afin de lui permettre de décrire précisément des alternatives de conception. Notre contribution logicielle consiste en un outil de prototypage basé sur une approche à composants qui implémente notre espace de caractérisation (notre contribution conceptuelle). Nous avons implémenté plusieurs prototypes multimodaux à l'aide de cet outil, qu'ils soient fonctionnels ou en partie simulés par un compère humain selon une approche Magicien d'Oz
Ln this work, we focus on the design of interactive systems. We are specificaly interested in multimodal systems, systems that use several interaction modalities. Our work aims at defining methods and tools for the design of those interactive systems. We aim specially the prototyping phase of the conception of multimodal interface. We present a component-based approach for designing and prototyping input multimodal interfaces, both functional or simulated. This approach is based on our conceptual compone nt mode!. Our contribution is both a conceptual model and a software too!. Our conceptual model is based on a characterization space for software components. This space hels interaction designers describing the component assembly and considering different design alternatives. Our sorftware tool is a component-based prototyping tool that implements the characterization space (our conceptual model). We have implemented several multimodal prototypes using this tools, both functional or simulated bya human using a Wizard Of Oz approach
APA, Harvard, Vancouver, ISO, and other styles
49

Serrano, Marcos. "Interaction multimodale en entrée : Conception et Prototypage." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-01017242.

Full text
Abstract:
Les interfaces multimodales se caractérisent par la multiplicité des modalités d'interaction et leurs combinaisons. Ces modalités d'interaction atomiques ou combinées sont offertes à l'utilisateur pour interagir avec un système (modalités en entrée) ou exploités par le système pour fournir des informations (modalités en sortie). L'interaction multimodale en entrée ne se limite plus aujourd'hui à la combinaison de la parole et du geste : de nombreuses modalités d'interaction, comme les interactions multi-doigts et bi-manuelles, le suivi du regard ou les interfaces tangibles, ouvrent un vaste espace de possibilités pour la multimodalité. Face à ce constat, il est donc important de pouvoir explorer efficacement l'espace de possibilités lors de la conception d'interfaces multimodales : nos travaux visent à définir des solutions conceptuelles et logicielles pour l'exploration des possibilités en termes d'interactions multimodales en entrée. Nous présentons ainsi une approche à composants pour la conception et le prototypage fonctionnel et/ou non fonctionnel d'interfaces multimodales en entrée. Nous adoptons une approche par flots de données, reposant sur un assemblage de composants qui décrit l'interaction multimodale en entrée pour une tâche utilisateur donnée. Nos contributions sont conceptuelles et logicielles. Notre contribution conceptuelle consiste en un espace de caractérisation de composants logiciels pour la multimodalité en entrée. Cet espace permet de caractériser les composants logiciels au sein de l'assemblage de composants qui décrit une interaction multimodale. Il offre au concepteur un cadre conceptuel afin de lui permettre de décrire précisément des alternatives de conception. Notre contribution logicielle consiste en un outil de prototypage basé sur un modèle à composants qui implémente notre espace de caractérisation (notre contribution conceptuelle). L'outil permet au concepteur de créer et d'exécuter un assemblage de composants définissant une interaction multimodale. Nous avons développé de nombreux prototypes multimodaux sur PC et sur téléphones mobiles à l'aide de cet outil, qu'ils soient fonctionnels ou en partie simulés par un compère humain selon une approche Magicien d'Oz. Ces prototypes mettent en oeuvre une grande variété de modalités d'interaction comme des gestes 2D et 3D, le pointage 3D, la voix, les mouvements de la tête, les mouvements du corps, la géolocalisation ou encore des interactions tangibles.
APA, Harvard, Vancouver, ISO, and other styles
50

Abdel, Wahab Shaimaa. "Le multimédia en maternelle : tâches, activités et apprentissage du langage." Electronic Thesis or Diss., Paris 8, 2016. http://www.theses.fr/2016PA080018.

Full text
Abstract:
Le but de cette recherche est d’étudier l’impact de l’apprentissage assisté par le multimédia sur le développement du vocabulaire et sur la compréhension, chez les enfants du préscolaire, par rapport à l’apprentissage traditionnel. Elle vise également à étudier l’impact des différents modes d’interaction dans les environnements informatisés, sur le développement du langage et sur la compréhension de l’histoire chez l’enfant.L’apprentissage du langage est un enjeu fort de réussite scolaire ultérieure pour les élèves de l’école maternelle. Cette recherche doctorale vise à étudier l’impact, sur l’acquisition de certaines compétences concernant le langage, de l’introduction d’environnements informatisés en dernière année d’école maternelle (grande section, enfant de 5 à 6 ans). Nous nous attachons particulièrement à l’acquisition, par les enfants, des connaissances linguistiques et des compétences langagières, en matière de lexique et à travers la réception et la compréhension de récits. Cette étude s’attache d’abord à faire le bilan des recherches et l’analyse des logiciels existants (les histoires électroniques) en français. Elle utilise ensuite un logiciel spécifique (Un Prince à l’école) dans des classes maternelles de région parisienne, pour étudier l’effet de son emploi dans le développement du vocabulaire (un pré/post-test) et la compréhension du récit (un post-test) pour ces élèves. Nous étudions (i) l’impact de l’interaction avec l’histoire sur support électronique vs l’histoire sur support papier, (ii) l’impact de l’interaction (individuelle vs collaborative) avec l’histoire sur support électronique sur le développement du vocabulaire et la compréhension du récit
The purpose of this research is to study the impact of multimedia assisted learning on vocabulary development and comprehension among children of preschool, compared to traditional learning. It also aims to study the impact of different modes of interaction in computerized environments on language development and comprehension of the story among children of preschool.Learning the language is a major challenge for future academic success of students in kindergarten. This doctoral research aims to study the impact on the acquisition of certain skills on the language, and introduction of computerized environments in the final year of kindergarten (KG2, 5 to 6 year-olds). The study focuses particularly on the children acquisition of language skills in vocabulary and through the reception and comprehension of narratives. This work aims to take stock of existing research and analyses software (electronic stories) in French. It then uses special software (Un Prince à l’école) in the Paris region, and study the effectiveness in vocabulary development (pre/post test) and comprehension of the story (post-test) for these children. We studied (i) the impact of the interaction with the e-story vs. the story on paper, (ii) the impact of the interaction (individual vs. collaborative) with e-story on vocabulary development and comprehension of the story
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography